Читать книгу Wir sind wie Stunden - Michael Thumser - Страница 9

Оглавление

Die Erfindung der Dauer

Wie der Mensch auf Zeit und Geschichte verfiel

Der Geist des Weines

Unter der Nummer 714 893 gewährte das Deutsche Reichspatentamt am 9. Dezember 1941 den Schutzanspruch für eine Wanduhr der besonderen Art. Zwar trieb Elektrizität sie an, nicht aber, wie üblich, ein Elektromotor. Vielmehr verdankte sie ihren ziemlich verlässlichen Gleichlauf – pro Tag ging sie nur etwa vierzig Sekunden vor oder nach – dem Geist des Weines. Denn hinter dem Zifferblatt befand sich, aufgeschraubt in quadratischem Holzrahmen, eine Art Rad aus vier Glaszylinderchen, teilweise mit Spiritus gefüllt. Über Röhren standen die luftdichten Gefäße miteinander in Verbindung. Im Wechsel lag immer eines an einer kleinen Heizeinheit an, so lange, bis der Spiritus in ihm verdampft und als Dunst in den darüber liegenden Zylinder emporgestiegen war. In dessen Kühle kehrte das Ethanol kondensierend zu seinem flüssigen Zustand zurück und beschwerte dadurch den Zylinder, der um eine Position nach unten gezogen wurde. So drehte sich das Rad mit Unterbrechungen, Stück um Stück, doch regelmäßig. Dabei spannte es über einen Hebel eine Feder, die ihre Kraft an die Zeiger weitergab, wie es Uhren geziemt.

Uhren sind, nach einem Wort des US-Soziologen Lewis Mumford, unbedingt zu den „Schlüsselmaschinen der Neuzeit“ zu zählen. Denkbar, dass der Geist des Weines dem Urheber dieses Exemplars nicht allein als Treibmittel für sein Wunderwerkchen diente, sondern ihn selbst zu einer Technik inspirierte, die es erlaubte, 1941 in Weltkriegszeiten Strom aus der Steckdose zu nutzen, während alle verfügbaren Elektromotoren wehrtechnisch verbraucht wurden. Allemal kündet das chronometrische Kuriosum vom Geistreichtum menschlicher Erfinder-Fantasie. Sie setzte die Flüchtigkeit einer chemischen Substanz, den unausgesetzten Fluss subatomarer geladener Teilchen und den Wechsel zwischen heißer und kalter Temperatur in ein quantifizierbares und greifbares Verhältnis zueinander, um etwas so Ungreifbares zu messen wie die Zeit. Die hat also, zumindest im Zuge ihrer Veranschaulichung, mit Energie zu tun, denn an den in Gang gebrachten Zeigern, den leuchtenden Ziffern der Uhr lesen wir die Zeit ab; und sie braucht zumindest bei klassischen Uhren mit Zifferblatt Raum, denn die Zeiger schreiten voran, legen einen Weg zurück.

Wann beginnt Zeit? Mit größter Selbstverständlichkeit halten wir sie für ein unbeeinflussbares Immer-und-Ewig. Aber denken wir nur einen Augenblick über sie nach, sind wir uns gleichwohl bewusst, dass wir, indem wir sie primär in Stunden, sekundär in Minuten und Sekunden einteilen, recht willkürlich mit ihr verfahren. Wann beginnt eine Stunde? Wir gewöhnten uns an, ihren Anfang mit dem unendlich schmalen Moment gleichzusetzen, da sich der große Uhrzeiger von der Zwölf als Startpunkt zum ersten der sechzig Minutenstriche aufmacht. Bei Bahnhofsuhren legt der Sekundenzeiger für zwei Sekunden ein Päuschen auf der Zwölf ein, bevor er die nächste Runde angeht wie nach einem verzögerten Stups. Leicht beschleicht uns für jene zwei Sekunden der beklemmende Eindruck, die Zeit wolle stillstehen, um dann erst recht einen Sprung zu machen.

Aber die Zeit springt nicht; nicht so, dass wirs spüren könnten. Macht alle Zeit der Welt, macht die Geschichte Sprünge? Fast dürften wir daran glauben, wenn wir den Publizisten Herbert Illig ernst nehmen wollten, der online das obskure Magazin ZEITENSPRÜNGE herausgibt. Als Germanist promoviert, als Geschichtswissenschaftler Autodidakt, machte er sich 1995 bekannt, indem er – im Verein mit dem Technikhistoriker Hans-Ulrich Niemitz von der Universität Leipzig – mit der Behauptung an die Öffentlichkeit trat, die historiografische Dokumentation von dreihundert Jahren des frühen Mittelalters sei nichts als schnöder fake; die in der Chronologie etwa zwischen den Jahren 600 und 900 vermerkte Zeitspanne habe es nie gegeben. Mithin seien auch identitätsstiftende Leitgestalten wie Karl der Große Phantomfiguren aus einer pompösen, aber manipulativen Mogelpackung. In einem bestsellerhaft verkauften Buch ruft Illig eine Reihe von unbestreitbaren Rätselhaftig- und Unerklärlichkeiten in der Datierung von Ereignissen und Entwicklungen der europäischen Geschichte als Zeugnisse auf, um seine im Echoraum eines (dem Buchtitel zufolge) ERFUNDENEN MITTELALTERS versammelten Anhänger mit Scheinbelegen über einen „leeren Zeitraum“ zwischen 614 und 911 zu versorgen. So behauptet er, etliche eigentümliche Baudetails an der Aachener Pfalzkapelle, darunter ihre Kuppel und die Bronzetüren, ließen darauf schließen, dass das berühmte karolingische Kernstück des Doms nicht etwa um 800, sondern erst um 1100 errichtet worden sei. Überhaupt hätten, so Hans-Ulrich Niemitz, die akademischen Mediävisten ihren Forschungszeitraum lügnerisch „zurechtgebogen, was das Zeug hält“ – eine kolossale „Chronistensauerei“, die auf einen Willkürakt des Kaisers Otto III. zurückgehe. Dessen Biodaten verortet die allgemein anerkannte Historiografie zwischen 980 und 1002; in Wirklichkeit, so fabeln die beiden Verschwörungstheoretiker, habe der Jüngling ums Jahr 700 gelebt, sich aber sehnlichst an die Schwelle des ersten zum zweiten Jahrtausend gewünscht, um der dann erwarteten Wiederkunft Christi beiwohnen zu können. All die Gestalten und Geschehnisse der erfundenen Zwischenzeit hätten ebenso hochrangige wie einfallsreiche Schreiber und Kanzlisten des Monarchen wie auch des Papstes Silvester II. ersonnen und zu einem dichten, wenngleich keineswegs immer einleuchtenden Geschichtennetz verwoben. Seriöse Fachleute wenden ein, Täuschungsmanöver von solcher Tragweite hätten eines Komplotts von beispielloser Ausdehnung und Verschwiegenheit bedurft. So brandete den zwei Provokateuren, wo Notiz von ihnen genommen wurde, eine Flut von Häme und Protest entgegen. Mag ja sein, dass zahllose, auch wirkmächtige Urkunden des Mittelalters ver- oder gefälscht worden sind – die haarsträubenden Volten der Herren Illig und Niemitz aber (die zuvor schon die Entstehung der ägyptischen Pyramiden aus dem dritten vorchristlichen Jahrtausend ins erste zu verlegen suchten) gelten zunftgemäßen Kolleginnen und Kollegen denn doch als „absurd“, „abenteuerlich“ und „reine Spinnerei“. Beider Gefolgschaft belächeln sie als „pseudoreligiöse Gemeinde“.

Wirklich verdienen derlei Hirngespinste grundsätzlich kein größeres Interesse, als es einer schrulligen Anekdote der Geschichtsschreibung zukommt. Aber die weist uns immerhin zurück auf die Ursprünge des Begriffs Geschichte, der sich erst während des achtzehnten Jahrhunderts gegen die zuvor gebräuchliche Historie durchsetzte. Leicht einsehbar, weil sprachlich evident bezeichnet Geschichte zunächst alles, was geschehen ist; zugleich auch das, was über Geschehnisse mitgeteilt wurde und wird, speziell durch wissenschaftliche Forschung. Auf unsere Spezies bezogen, ist Geschichte, was sich über uns in Form von Geschichten erzählen lässt, die in realen Orten, Personen und (vergangenen) Zeiten verankert sind. Von einzelnen Gestalten oder ganzen Völkern, von der Menschheit und der Welt kann Geschichte handeln, wenn, was sie erzählt, über das alltäglich Gleichgültige hinaus Bedeutung und Wirkungen hatte auf Gesellschaften und deren Denken und Handeln, auf ihr Wirtschaften und den Verkehr mit Nachbarn, Partnern und Opponenten, auf ihre kulturellen Leistungen. Geschichte fragt nach dem, was war, indem sie nach den zureichenden Gründen dafür fragt, nach dem Woher, Warum und Wozu: nach Ausgangspunkten und Vorbedingungen, Motiven und Intentionen. Indem sie den Gang der Ereignisse als Kette aus Auslösern und Konsequenzen nachvollzieht, blickt sie vom gegebenen historischen Moment aus stets auch in die von diesem Moment aus gesehene Zukunft hinein. Woraus zusammenfassend für uns Heutige erhellt, dass wir „ohne Herkunft keine Zukunft“ erwarten dürfen, wie der namhafte, 2015 gestorbene Philosoph Odo Marquard als Quintessenz formulierte; oder um den Altbundeskanzler Helmut Kohl zu zitieren: „Wer die Vergangenheit nicht kennt, kann die Gegenwart nicht verstehen und die Zukunft nicht gestalten.“

Keine Experimente

Wann aber verfielen unsere Vorfahren darauf? Wann war ihr Staunen und Wundern über die Welt und über sich selbst in ihr so groß geworden, wann verführte sie ihr urmenschliches Reflexionsvermögen soweit, dass sie fragten, was das Gestern von ihrem Heute unterscheide und was wohl morgen aus ihnen werden möge, warum manche Vorgänge und Verrichtungen unangemessen lang dauern und andere unverhofft oder unerwünscht schnell vorübergehen?

Immer stehen Erkundigungen nach dem Lauf der Zeit und der Bedeutung der Geschichte in zwingendem Bezug zur Gegenwart – selbst dann, wenn es wie bei Leopold von Ranke, dem 1886 gestorbenen Nestor der deutschen Geschichtswissenschaft und Vorkämpfer ihrer historisch-kritischen Methode, scheinbar unvoreingenommen darum gehen soll, „wie es wirklich gewesen“ ist. Die Wirklichkeit als Forschungsfeld der Geschichtswissenschaft weicht weitgehend ab von dem der Naturwissenschaft: Zwar haben es beide mit Ursache-Wirkung-Geflechten zu tun. Der Naturwissenschaftler aber belegt seine Erklärungen durch akribische Beobachtung und Messung; als wahr gelten Ergebnisse, die sich im Experiment durch Wiederholung beliebig nachprüfen und exakt vorhersagen lassen. Vergleichsweise eng sind die Spielräume, die hier der Interpretation bleiben.

Demgegenüber liegt die veröffentlichte Wahrheit der Geisteswissenschaften, auch der Historiografie weitaus tiefer in der individuellen Deutung durch den Forscher begründet; ihm bleibt die Möglichkeit des objektiven, absichernden Experiments verschlossen. Gleichwohl muss er danach trachten, sein Tun durch ein widerstandsfähiges Faktenfundament zu untermauern, durch die Kenntnis und Durchleuchtung einschlägiger Quellen. Doch bereits hier, beim Graben nach Zeugnissen, Originalen und Belegen sowie ihrer Sichtung, entkommt er seiner Persönlich- und Parteilichkeit nicht: Seine Interpretation einer Quelle beginnt bereits mit dem Urteil, ob er sie als echt anerkennt oder als Falsifikat verwirft, für wesentlich oder unwichtig hält. Wollen wir dem nahekommen, wie „es wirklich gewesen“ ist, tut sich uns allein der Weg der Rekonstruktionen, der Analogieschlüsse und Vermutungen, der Wahrscheinlichkeitsrechnungen und Schätzungen auf. Gelänge es, uns mit Hilfe einer Zeitmaschine etwa an den Hof des strahlenden Stauferkaisers Friedrich II. zu versetzen, wir würden zwar wissbegierig ein paar Stunden bis Tage der vergangenen Epoche einsaugen mit allen sehenden und hörenden, riechenden und schmeckenden Sinnen; das Erlebte aber auch nur im Ansatz zu verstehen, bliebe uns, selbst wenn wir sprachliche Hürden überwänden, verwehrt: Zu weit lägen Zeitgeister und Weltsichten auseinander, weder dem hochmögenden Monarchen noch dem schlichtesten seiner Köche oder einem beschränkten Stallburschen könnten wir begreiflich machen, dass wir, nicht anders als sie, der Gattung Mensch zugehören. Vielleicht würden wir, unserer vergleichsweise atemberaubenden Fähigkeiten halber, für Engel gehalten; oder doch eher als Dämonen ausgetrieben, wenn nicht als Zauberer und Hexen verbrannt.

An der Datenbasis der Geschichte scheint nichts hieb- und stichfest – gehen wir den Herren Illig und Niemitz auf den Leim, dann nicht einmal die Korrektheit simpelster Jahreszahlen. Wann beginnt das Mittelalter – im Jahr 600 oder 900? Wann beginnt der Tag – wirklich in der Mitte der Nacht, in Stockfinsternis um null Uhr? Dann aber immer nur in einer einzigen der 37 Zeitzonen, die den Planeten umfassen. Oder fängt er, wie der Islam lehrt, mit dem Sonnenuntergang an? So sieht es auch die jüdische Bibel, wenn sie berichtet, wie in Gottes Schöpfungswerk „aus Abend und Morgen der erste Tag“ und alle folgenden aufstiegen. Für uns Dutzendgesichter geht er so richtig erst dann los, wenn wir, mal früher, mal später, am Morgen aus dem Bett finden. Unsere Sprache bekräftigt uns in dieser Empfindung: Das Wort Tagesanbruch bezeichnet, nach der Nacht, das Morgengrauen.

Und wann beginnt die Woche? Am Montag? So halten wir es für selbstverständlich; 1978 legten das die Vereinten Nationen international fest, und die ISO-Norm 8601 standardisiert es. Die Bewohner mancher arabischer Länder halten indes den Samstag für den Start in die Woche. Den Sonntag sieht die jüdische und christliche Tradition dafür vor. Auch hierzulande regelte ein Normenwerk im Jahr 1943, dass eine Woche von Sonntag bis Samstag dauere. Aber selbst damals genossen die Deutschen ihr Wochenende an Samstag und Sonntag. Wann beginnt das Jahr? Nach wie vor halten wir uns an das Dekret von Papst Innozenz XII., der 1691 den 1. Januar festlegte. Indes galt den Römern der Antike, die lange nur zehn Monate kannten, ehedem der 1. März als Neujahr, weshalb unser neunter Monat September, „der siebte“, und unser zehnter Oktober, „der achte“, heißt, unser elfter Monat November, ursprünglich „der neunte“, und unser zwölfter Dezember, „Zehnter“; 153 vor Christus legten sie das Datum gleichfalls auf den 1. Januar. Den griechischen Nachbarn war ein Termin im Sommer lieber. Die frühen Christen in der Metropole Rom feierten am 6. Januar. Auf den 22. September datierten die französischen Revolutionäre den Anfang ihres Jahres, auf jenen Tag, an dem sie 1792 die Republik ausgerufen hatten. Weil die orthodoxen Christen sich nach wie vor am Julianischen Kalender orientieren, fällt ihr Neujahr auf den 14. Januar unseres gregorianischen Kalenders. Für die Chinesen wandert der Jahresanfang zwischen dem 21. Januar und dem 21. Februar, je nachdem, wann sich der Mond als Neumond unsichtbar macht. Hauptsache, das Jahr geht los, egal wann?

Aber Zeit geht nicht los. Sie geht weiter. Unsere Einteilungen, Kategorisierungen, Benennungen sind nichts als Gehhilfen, künstliche Gliedmaßen. Sie dienen uns, das unaufhaltsame, unumkehrbare Kontinuum jener ungreifbaren Immaterialität, die wir Zeit nennen, mit Gedanken wie mit Händen zu fassen und organisatorisch in den Griff zu bekommen. Die Zeit selbst nehmen wir nicht wahr; wir stellen allenfalls Veränderungen fest, die sich in ihr, dem formalen Rahmen, ergeben. Und sich ergeben haben: Was vergangen ist, ändert sich nicht mehr.

Als einzig Unveränderbares im gesamten Kosmos hat Albert Einstein die Geschwindigkeit des Lichts ermittelt, das mit konstantem Tempo durch die Luftleere des Weltalls saust und dabei für 299 792,458 Kilometer eine Sekunde benötigt. Hier tritt uns Zeit als objektive Größe entgegen. Ebenso abgelöst von innermenschlichen Belangen können wir den Weg messen, den unsere Erde um die Sonne zurücklegt: Etwa 940 Millionen Kilometer ist er lang, und der Planet genehmigt sich für sie präzise 365 Tage, fünf Stunden, 48 Minuten und 46 Sekunden. Bis ins Allerkleinste objektivieren Atomuhren die Zeit, so die Cäsiumstrahl-Uhr mit der Bezeichnung CS2, die seit 1991 in der Physikalisch-Technischen Bundesanstalt in Braunschweig das Zeitnormal für die deutschen Funkuhren bereitstellt; seine Messung baut darauf, dass ein Cäsiumatom in der Sekunde 9 192 631 770 Mal schwingt. Am akkuratesten verfährt das Exemplar, das der Physiker Andrew Ludlow 2013 im National Institute of Standards and Technology im US-amerikanischen Boulder entwickelte, wofür er tiefgekühlte Strontiumatome heranzog: Bei ihm weicht ein Zeitintervall vom nächsten um höchstens anderthalb Trillionstel Sekunden ab; damit läuft die Maschine zehn Mal präziser als ihre Vorgängerinnen.

Die Schwingung von Atomen aufzunehmen, sind unsere Sinnesorgane wahrlich nicht geschaffen. Ohne Behelf vermag unser Verstand Zeit lediglich durch subjektive Eindrücke aufzufassen, nicht zuletzt, weil Empfindungen von Lust oder Unlust die Tiefe eines Eindrucks, will sagen: seine gefühlte Dauer statuieren. Darum erscheinen uns dreißig Minuten Liebesspiel viel kürzer zu währen als fünf schmerzvolle Minuten einer Kieferabszessbehandlung. Als etwas Uneigentliches, höchstens Relatives erleben wir Menschen die Zeit: Im Grund genommen ist sie für uns nichts, das „weitergeht“, sondern ein Medium, in dem wir uns bewegen, indem wir es durchqueren.

Wenn wir schon so gute Gründe finden, gewohnheitsmäßige Vorstellungen von Zeit infrage zu stellen, so haben wir auch keinen Anlass, ihr in Gestalt der Gegenwart zu vertrauen. Die ist ein Kommen und Gehen: Sie geht uns verloren und kommt uns abhanden. Betrachten wir sie genau, so entzieht die sich der Greifbarkeit wie die Zeit selbst. In Windeseile wird zu Geschichte, was wir eben noch konkret erlebten. Immer höher türmen sich Fakten-, Ereignis-, Erinnerungsmengen auf, die wir zu sichten, zu ordnen, womöglich zu dokumentieren, zu archivieren haben. Welches Gedächtnis fasst wohl so viel? Wo legen wir, gerissen in einen Strudel sozialer und militärischer, kultureller, technischer, moralischer Veränderungen – den geistigen Finger auf fixe Punkte, die Orientierung erlauben. Mit gewaltigen Datenspeichern behelfen wir uns. Mit Museen auch: Fast 7000, von der erlesenen Kunst- bis zur possierlichen Teddybärensammlung, gibt es in der Republik (die meisten in Baden-Württemberg und Bayern), 114,4 Millionen Besuche verzeichneten sie 2018.

„Weder die Zukunft noch die Vergangenheit ist“, schrieb schon der antike, 430 verblichene Kirchenvater Augustinus von Hippo, und in der Gegenwart erahnen wir gerade mal ein mageres Jetzt zwischen dem nichtexistenten Nicht-mehr und dem nichtexistenten Noch-nicht, einen gleichsam submikroskopischen ‚Augenblick‘, wie ihn der schwedische Philosoph Søren Kierkegaard verstand: ein „Zweideutiges, darin Zeit und Ewigkeit einander berühren“. Leider geriet der (oder das) Nu außer Gebrauch; dabei gibt das Wörtchen durch seine Winzigkeit die Kürze jener denkbar kleinen Zeitspanne trefflich wieder. Zwischen vermeintlich unendlicher Vergangenheit und zum Schein unerschöpflicher Zukunft zwängt unsere Wahrnehmung die Gegenwart ein, als wäre sie ein Moment labiler Gewissheit zwischen Fragmenten zweifelhafter Erinnerungen und hypothetischer Erwartungen.

Trotzdem halten wir uns an ihr, einem Atom im Riesenmolekül Zeit, fest und versuchen, sie sinngebend und zu unserem Segen auszuschöpfen: Carpe diem – „pflücke den Tag“, genieße die Zeit! Neben die altrömische Devise des Dichters Horaz postiert sich als antikes Pendant die Vorstellung der Griechen vom kairos, vom günstigsten, leider flüchtigen Augenblick im chronos, im fortdauernden Zeitstrom. Den kairos gilt es unverweilt und mutig zu ergreifen und zu nutzen. Daseins-Topografie: Im Möglichkeitsraum des Lebens bezeichnet dieser Zeitpunkt X einen Ort, an dem sich die Chance der Chancen bietet, die Gelegenheit, die den meisten Ertrag verspricht, eine beim Schopf zu packende goldene Sekunde. Allegorisch tritt sie in der griechischen Mythologie auf: Kairos ist ein Sohn des Göttervaters Zeus; sein Hinterhaupt ist haarlos, während über seiner Stirn eine umso dichtere Tolle flattert.

Eine Sekunde, nicht viel mehr. Denn nichts hat Bestand außer dem Wandel, und für ihn, für die Veränderung, ist die Zeit das Medium. Inbilder von besonderer Fasslichkeit findet sie in der Bewegung und in der Metamorphose. Die eine, die Veränderung der Position im Raum, behält die Natur fast ausschließlich den Tieren vor, weswegen die Evolution ihnen und nicht den Pflanzen Gehirne zugestand. Die andere, der Gestaltwandel, vollzieht sich zum Beispiel bei der Raupe, die sich zum Schmetterling buchstäblich entfaltet, oder beim Generationswechsel von Nesseltieren, die als Polypen fest auf Grund sitzen, bevor sie, sich quer abschnürend, als Quallen davonsegeln. So wird die Idee der Veränderung erfahrbar im Werden und Vergehen und Wieder-Werden, was den einander ablösenden – oder besser: sich fortzeugenden – Zeit-Räumen den Anschein eines Kreislaufs verleiht; eines ewigen Kreislaufs. Freilich, so grenzenlos, wie uns die Zeit landläufig scheint, ist sie nicht. Das ahnten die Autoren des Alten und des Neuen Testaments der Bibel, wenn sie den Anfang von Allem in den sechs Schöpfungstagen des – am siebten Tag redlich erschöpften – Gottes schilderten und das Ende an dessen Jüngstem Gericht über Welt und Menschen erwarteten. Nicht ganz unähnlich unterrichtet uns die Astrophysik darüber, wie der Urknall oder big bang die Zeit, vereint mit dem Raum und zusammen mit aller Materie, vor etwa 13,8 Milliarden Jahren hervorbrachte; und sie wird, mit allem im All und mit diesem selbst, irgendwann in undenkbar weiter Ferne wieder zugrunde gehen, egal ob in einem big crunch oder big rip, einem big chill oder wie die Weissagungen der Experten alle heißen. Ein endgültiges Ende? Oder folgt auf die letzte Trillionstel Sekunde dieses Universums eine nächste, die ein nächstes gebiert? Wir wissen es nicht. Wir müssen es nicht wissen.

Denn wir haben, so weit – so kurz – unsere Übersicht reicht, genug mit unserer Geschichte zu tun, obendrein mit den paar künftigen Jahren, in die unsere Prophezeiungen einigermaßen plausibel reichen mögen. Dazu erfanden wir die Chronologie: als wissenschaftliche Methode, Zeit und Zeitläufte festzustellen und festzuhalten. Mit ihr als Werkzeug ermitteln wir das Wesen der Zeit; und wir dokumentieren damit einen Prozess, aus dem als Ausschläge geschichtsträchtige Vorfälle heraustreten. Akteur jener Vorkommnisse, mithin der Geschichte ist der Mensch in seiner Um- und Lebenswelt, durch seinen Willen, durch seine Möglichkeiten und seine Bereitschaft zur Tat, durch den Grad seiner Vernunft. Denn weil wir unsere Gegenwart als haarschmal erkennen, entwerfen wir unser Dasein über den Augenblick und also über die schiere Existenz hinaus. Wir wissen, dass unser Heute zeitlich und inhaltlich aus dem Gestern folgt; und dass es auf ein Morgen hinausläuft, für das wir Vorsorge treffen müssen. Unser Leben sehen wir umschlossen von einer wie auch immer weitreichenden Spanne Zeit, die endlich ist, in der wir uns aber bis ans Ende Mal um Mal ummodeln; und wir wissen uns installiert in einem Lebensraum, der aus deutlich mehr als einem Ort besteht, nämlich aus vielen Orten, die es bei steter Bewegung anzusteuern oder zu meiden gilt, was wiederum jeweils eine gewisse Zeit dauert.

In der „Dauer“ identifizierte Henri Bergson eine mentale Erfahrung von Zeit, die sich nicht in das Regelmaß des Uhrpendels oder des Sekundenzeigers schicken mag: Mit dem „Fortschreiten in der Zeit schwillt mein Seelenzustand kontinuierlich um die dabei aufgelesene Dauer an; gleich einem Schneeball rollt er sich selbst, lawinenartig größer werdend, auf.“ So, körperhaft, beschreibt der französische Philosoph Dauer als Volumen der von uns wahrgenommenen Zeit: Ihrem zunächst linear, zwischen Zeitpunkten, gespürten Verlauf fügt er eine räumliche Dimension hinzu, verwandelt den Kreis des Kreislaufs geradezu in eine Kugel, vermittelt unseren Erfahrungen in und mit der Zeit sphärischen Charakter.

Solchen epistemologischen Kalkulationen mögen sich die Erkenntnistheoretiker und Metaphysiker unter den Philosophen hingeben. Beim Gang in die Zeiträume, die sich dem Historiker beim Studium seiner Quellen eröffnen, bewegt er sich weit weniger spekulativ dank der Chronologie, die ihn in mehrfacher Weise unterstützt: als Wissenschaft von der Zeitmessung und Zeitrechnung; als Methode der Datumsfindung und Jahreszählung; folglich als Grundlage für Historiografie, für die Aufschreibung und Überlieferung erzählbarer Geschichte. Historiografie ist das Gedächtnis der Welt.

Zeit und Zerebrum

Wie kommt die Zeit ins Hirn? Jedenfalls nicht wie Licht und Schall, nicht wie Geruchs- und Berührungsreize; für dies alles versorgte die Evolution uns mit empfindlichen Sinnesorganen. Die Zeit aber übt keine physikalische Wirkung auf uns auf, kein sinnliches Erlebnis kann aus ihr keimen. Zwar darf sie, wie die Philosophen sagen, als Entität gelten – als ein Etwas, das ‚da‘ ist –, jedoch nicht als Gegenstand. Aber unser Gehirn ist einer: Im Universum kam uns Menschen, wie Neurobiologen sowohl wie Informatiker staunend eingestehen, noch keine kompliziertere Konstruktion unter als dieses knapp drei Pfund schwere graue Zellgewebe. Ein Konstrukteur ist das Zerebrum seinerseits: die Instanz, die Zeit für uns erst eigentlich herstellt. Was die Sinnesorgane an Daten, Angaben und Fundstücken in unsere Köpfen einspeisen, das fügt die famose Informationsverarbeitungsanlage darin nach Kräften zu Sukzessionen zusammen: inhaltlich zu einer Serie, dynamisch zum Ablauf – zu Strukturen, mit denen das Bewusstsein umgehen kann. Der britische Physiker Julian Barbour bekräftigte, wir hätten uns die Vorstellung von Zeit verschafft, um uns ihrer als einer „künstlichen Hilfsmessgröße“ zu bedienen, ohne die unser Verstand Realität nicht abbilden könnte. Denn der strebt stets danach, die Dinge seiner Umwelt zu ordnen, weil er sich nur so in ihr zu organisieren und zu orientieren vermag. Vor das Problem der Zeit, auch der Vergänglichkeit gestellt, betrachten wir unsere eigene Lebensspanne und die unserer Nächsten vorwiegend nach Jahren. Blicken wir dennoch weiter, ist uns als Kindern und Eltern das Vorher und Nachher der Generationen vertraut. Im Gegensatz dazu langt der Historiker weit großzügiger zu. Sein chronologisches Rüstzeug setzt ihn in die Lage, mit Jahrhunderten und Jahrtausenden, wenn nicht mit Erdzeitaltern zu jonglieren.

Unser zentrales Nervensystem, in seinen vielen, mannigfaltig beschäftigten Regionen von vielerlei biochemischen Prozessen regiert, stellt sich zuallererst auf die Feinmotorik der Zeit ein: Um Reize auseinanderzuhalten – und zu sequenzieren –, reichen ihm, wie Experimente zeigten, Zäsuren von zwei bis vier Hundertstel Sekunden zwischen ihnen aus; auf „dreißig Millisekunden“ befristet der prominente Psychologe Ernst Pöppel denn auch „das Jetzt“. In einem schon deutlich weiteren Zeitrahmen von zwei bis drei Sekunden erfassen wir, was wir als Gegenwart auf uns beziehen: So schnell entscheidet unser Gehirn, ob es einen Eindruck bewahren will oder ihn aus dem Kurzzeitgedächtnis löscht. Ein Raster gibt uns dies Intervall vor, nach dem wir in vielerlei Hinsicht denken und handeln. Beispielsweise prägt es sich in unserer Sympathie für tänzerisch-dreihebige Metren von Musikstücken aus, expliziter noch in den zeitlichen Intervallen der gesprochenen Sprache: Offenbar, so vermutet der Hirnforscher Marc Wittmann, bündeln wir deren „Inhalte zu Einheiten von zwei bis drei Sekunden, um optimale Kommunikation zu ermöglichen“.

Nur weil es uns gelingt, Informationen gemäß ihrer Ankunft bei uns zeitlich zu sortieren, können wir Ursachen und Wirkungen aufspüren; eine Fähigkeit, die zwar darauf beruht, dass wir Erfahrungen aus der Vergangenheit verarbeiten, die uns aber auch gestattet, aufgrund gegenwärtiger Gegebenheiten Perspektiven für die Zukunft aufzuzeigen, Erwartungen und Aussichten, Hoffnung oder Sorge zu artikulieren. An unsere Subjektivität und ihre Augenblicksempfindung bleibt sie im einen wie im andern Fall untrennbar gekettet. Wenn, während wir warten müssen, Langeweile oder Ungeduld an unseren Nerven zerrt, quält uns, bis das Erwünsche oder Befürchtete eintritt, jede Minute durch ihr vermeintliches Dahinschleichen. Denn der Mangel an Ereignissen, ebenso Er- und Aufregung, gespannte Aufmerksamkeit und Angst scheinen die Zeit zu dehnen; so sehr, dass ungeübte Bungee-Jumper nach einem Sprung die Dauer ihres freien Falls auf doppelt so lang schätzen, wie er in Wirklichkeit währte. Eine einzige Schrecksekunde durchleben wir wie unter der Zeitlupe, als ob wir alle Einzelheiten unter einem Mikroskop umständlich durchgingen. Umgekehrt bilden wir uns ein, dass eine dichte Reihe von Erlebnissen, freudigen zumal, die Zeit raffe, stauche, rasen lasse. Beides ergibt ein Wechselspiel der Eindrücke, das Psychologen als „Zeitparadoxon“ ernst nehmen; und das sich beim Rückblick als Gegenteil spiegelt: Ein leerer Zeitraum, weil wenig darin geschah, schrumpft in unserer Erinnerung, in der eine Spanne der Geschehnisfülle umso mehr Platz beansprucht.

Die Naturwissenschaft kategorisiert die Zeit oder Dauer als vierte Dimension neben den drei räumlichen der Länge, Breite und Höhe. Zugleich berücksichtigt die Psychologie sie als eine Dimension, die uns befähigt, Erlebtes zu gewahren, und dies subjektiv, ohne dass wir das Ticken eines Metronoms, das Hin-und-her eines Pendels, den zuckenden Gang eines Zeigers beachten müssten. Wenn wir in konzentriertem Wachzustand unseren Alltag der Gewohnheiten, familiären Prozeduren und beruflichen Termine durchqueren, läuft uns auf unserer ‚inneren Uhr‘ die subjektive Zeit so geschwind davon, dass wir keine Zeit zu haben meinen – so wenig, dass die Deutsche Gesellschaft für Zeitpolitik mahnte, es müsse endlich für „ein Recht auf Zeit zum Leben“ gesorgt werden: Zeitnot zähle inzwischen zu den gravierendsten Problemen der Gegenwart, durchaus mit materieller Not vergleichbar. Aber doch bleibt uns die Zeit erhalten, trotz Knappheit und Drucks, ob zusammen- oder auseinandergeschoben. Unverlierbar erhält sie sich in den Resultaten unseres Daseins. Etwa als Sechsjährige lernten wir, zwischen Vergangenheit, Gegenwart und Zukunft zu differenzieren, gaben aber dem Hier und Jetzt und Heute, das uns täglich mit Neuem überraschte, fieberhaft den Vorzug. Später führte uns das Leben aus den Wunderkammern und - tüten der Kinder- und Jugendjahre mit ihren schönen und misslichen, sämtlich ungekannten und zum ersten Mal gemachten Erfahrungen mehr und mehr heraus – mehr und mehr hinein in die Gleichförmigkeiten der erwachsenen Rhythmen und Routinen. Weil dem so war und ist, veranschlagen wir älter werdend und zurückschauend, gerne auch verklärend, die Dauer der frühen Jahre meist als weitaus länger als die der späteren und späten.

Vorher – jetzt – nachher: Um der Zeit einigermaßen habhaft zu werden, können wir uns, zusammen mit dem genannten Augustinus, grundsätzlich mit der Gegenwart behelfen, gleichviel, ob sie philosophisch als unendlich kleiner Punkt verschwindet oder neurobiologisch sich als Drei-Sekunden-Fenster öffnet. Auch der alte Theologe blieb dabei, dass die Zeit als Triade auftrete; aber er fand ihre drei Gestalten im menschlichen Geist sämtlich gleichzeitig anwesend: als „Gegenwart von Gegenwärtigem, nämlich Augenschein; [als] Gegenwart von Künftigem, nämlich Erwartung; [als] Gegenwart von Vergangenem, nämlich Erinnerung“.

Was jeder von uns an Erinnerungen festhält, stiftet sein bewusstes Selbst und macht ihn zum unaustauschbaren Individuum; nichts anderes stiftet die historische Erinnerung einer Gemeinschaft oder Gesellschaft: Identität. Indem der Historiker die Vergangenheit vergegenwärtigt, fasst er gliedernd und bewahrend das kollektive Gedächtnis in Worte. Fachleute wie Normalmenschen mögen gut daran tun, ihrem eigenen Gedächtnis nicht über den Weg zu trauen. Trotzdem kommen wir ohne nicht aus; im Gegenteil: Es ist eine unserer erstrangigen Gaben. Denn in ihm speichern wir, was unsere Sinne aufgezeichnet, was unser Bewusstsein wie unser Unbewusstes gelernt haben. Beide, Geist und Seele, sind Plattformen des Gedächtnisses, es diktiert sowohl unserem Denken wie unserem Verhalten. Als Gelenkstelle versöhnt es Philosophie und Psychologie, weswegen beide Disziplinen sich gleichermaßen dafür interessieren, und nicht weniger fällt es bei der naturwissenschaftlichen Erforschung unseres Nervensystems und seiner Leistungen ins Gewicht.

Innerhalb des Gehirns mit seinen ungefähr hundert Milliarden Neuronen und ihren zehn bis hundert Billionen synaptischen Verbindungen ermittelten Forscher mehrere Bereiche, in denen unser Gedächtnis agiert. Unsere Gedächtnisse: Das sensorische durchlaufen, für uns meist unbewusst, Myriaden von Außenreize in jagender, ununterbrochener Folge und gehen fast sämtlich binnen Sekundenbruchteilen wieder verloren. Das Wenigste verfängt sich als möglicherweise wesentlich für einige Sekunden im Kurzzeitgedächtnis. Nur Eindrücke, die das Gehirn bleibender Erhaltung für wert erachtet, hebt es zeitweilig, mitunter gar permanent im Langzeitgedächtnis auf; und nicht etwa in einem Stück. Vielmehr seziert es die Sache, bricht ihre formalen und funktionalen Wesenszüge auf und legt sie getrennt ab. Im Zug des Erinnerns dann fügen sich die Teile wieder zu einem Abbild des Urbilds zusammen. Obendrein erlauben sie uns Assoziationen und Vorstellungsverknüpfungen mit anderen, teils entlegenen Erlebnissen. So kann uns ein dralles Baby, das wir heute hätscheln, mit seinen runden, wohldurchbluteten Wangen an ein rotbackiges Äpfelchen zurückdenken lassen, in das wir vor Jahresfrist während des Urlaubs herzhaft bissen (und unser Reden vollführt die passende metaphorische Volte dazu: Wir haben, schmeicheln wir, das Kleine zum Fressen gern). Jenen Gedankenblitz holt unser Erinnern aus dem sogenannten episodischen Gedächtnis hervor, das, grob gesagt, unsere Autobiografie im Kopf mitschreibt. Dass wir aber den Apfel von einer Birne, sein Rot von ihrem Grün und die Frucht vom Baby unterscheiden, gewährleistet unser auf Fakten abonniertes semantisches Gedächtnis. Und dass wir, ohne erst lange nachzudenken, das Baby schonend fest und sein Köpfchen stabil hoch zu halten wissen, dass wir fast blind seine Windel zu wechseln verstehen, ohne erst das kinderpflegerische Rad neu erfinden zu müssen, das stellt schließlich das prozedurale Gedächtnis sicher.

Indes überkreuzen sich individuelles Erinnern und historisches Gedächtnis nicht bloß in den phänomenalen Leistungen des einen wie des andern, ebenso in einem notwendigen Mangel. Unausweichlich als begrenzt erweisen sich beider Erfahrungsschätze, weil das Gehirn das allermeiste, das uns begegnet, übergehen oder vergessen muss, um das vergleichsweise verschwindend Wenige aufzunehmen und zu behalten, das wichtig sein könnte. Als Mosaik aus oft gar nicht vielen Steinchen fügen sich unsere eigenen Erinnerungs- wie die Geschichtsbilder der Menschheit zusammen; die Fugen dazwischen füllen wir Durchschnittsmenschen, ganz so wie die Fachgelehrten beim Studieren und Deuten historischer Quellen, mit Mutmaßung und Verdacht, mit Gefühltem und Geahntem, auch schon mal mit Unterstellung und Fiktion.

Wirklich hilft der Wissenschaft bei der Verifikation ihrer Erkenntnisse stets auch die Falsifikation, die Widerlegung; wirklich bewahren uns Argwohn und Misstrauen vor leichtfertiger Gutgläubigkeit. Trotzdem dürfen wir daran glauben, dass weitgehend ‚stimmt‘, was die Geschichte uns davon erzählt, wies ‚damals‘ war. Wo Behauptung ist, ist Korrektur nie weit, aber im Großen und Ganzen passen die Konturen und Füllmengen in unserem Gedächtnis mit den entschwundenen Ereignissen zusammen.

Damit wir unser kollektives Gedächtnis, unsere kulturelle Erinnerung und erinnerte Kultur, mit strapazierfähigem Stoff füllen können, waren Paradigmenwechsel nötig, die teils Mirakeln gleichen. Vor etwa fünftausend Jahren schuf die Erfindung der Schrift die Möglichkeit, Gedachtes und Gedächtnis objektivierend und fixierend aus dem Kopf des Einzelmenschen hinaus zu verlagern. Vor etwa viertausend Jahren kam in Ägypten mit den ersten beschriebenen Papyri, aus denen ihre Verfertiger Rollen klebten, eine Vorform des Buchs auf, die der schriftlichen Darstellung umfänglicher und komplexer Gedankengänge und Tatbestände Tür und Tor öffnete. Vor etwa 1600 Jahren hatten sich Schreibkundige daran gewöhnt, ihre erarbeiteten Papyrus- oder Pergamentblätter zwischen Holzdeckeln zu einem Kodex zusammenzubinden. Vor etwa tausend Jahren vereinfachte und, vor allem, verbilligte Papier das Schreiben und die Buchbinderei. Vor knapp sechshundert Jahren revolutionierte Johannes Gutenberg, den Buchdruck mit beweglichen Lettern wahrscheinlich erfindend, gewiss perfektionierend, das Publikationswesen und bereitete einer neuen literarischen Öffentlichkeit von bis dato beispielloser Breite das Feld; gut hundert Jahre später hatte in Lateineuropa der Druck von Texten vollends die Abschrift von Hand abgelöst. Öffentliche Bibliotheken, die nach unseren heutigen Maßstäben so heißen dürfen, kannten schon die Griechen im antiken Athen und die Römer des Imperiums, die darin Buchrollen sammelten, systematisierten und Interessenten für Forschungen zugänglich machten; legendären Ruf besaß die bedeutendste derartige Einrichtung im nordägyptischen Alexandria mit ihrem wohl einzigartigen Bestand an literarischen und wissenschaftlichen Schriften. In den Bibliotheken des Mittelalters durchdrangen zwei Aufgaben äquivalent einander: Einerseits trugen sie Handschriften zusammen und bewahrten sie, andererseits vervielfältigten sie die Manuskripte und „illuminierten“ sie, erleuchteten sie mit Zeichnungen und Bildern. In den Universitäten der frühen Neuzeit dienten Bibliotheken der Beschaffung, Konservierung und Verschmelzung akademischen Bildungsguts und, immer munterer und vielfältiger sprudelnd, als Lektürequelle für bewährte wie heranwachsende Gelehrte. Im Lauf der Jahrhunderte überwanden Bücherstube und -saal das Kleinformat und wuchsen sich gehörig aus zum Fürstenarchiv, zur Staatsbibliothek, architektonisch zu Gebäuden von mancherorts einschüchternder Mächtigkeit und bildungsprotzender Pracht. Weil Bibliotheken Wissen nicht allein aufbewahren und aufrechterhalten, weil in ihnen auch lebendig weitergedacht, neu und umgeschrieben wird, figurieren sie als aufgeklärte Hirnareale der Kulturnation, als Gedächtnis und Erkenntnisgenerator.

Rund um die Uhr

Am Rathaus in Prags jüdischem Viertel prangt eine Uhr, die dem unvorbereiteten Betrachter leicht ein Gefühl des Unheimlichen suggeriert: nicht etwa, weil sie, dem Standort entsprechend, hebräische Ziffern trägt; vielmehr treibt sie die Konsequenz soweit, dass ihre Zeiger gegen den gemeinhin verbreiteten Uhrzeigersinn laufen. Damit entspricht sie der hebräischen Schrift, die – nach okzidentalen Maßstäben – ja auch gewissermaßen andersherum, nämlich von rechts nach links geschrieben und gelesen wird. Auf Ähnliches triff der Besucher von Florenz: Dort montierte man im Innern des Doms Santa Maria del Fiore 1443 eine Uhr, auf deren riesigem Zifferblatt nicht zwölf, sondern der „italienischen“ oder „julianischen Zeitrechnung“ gemäß 24 Stunden verzeichnet stehen, von Sonnenuntergang bis Sonnenuntergang gezählt, und über die der einzige Zeiger gleichfalls im umgekehrten Uhrzeigersinn wandert. Läuft etwa da wie dort die Zeit rückwärts, und wir merken es nicht? Noch weiter auf die Spitze treibt derlei chronometrische Merkwürdigkeiten und Paradoxien jede ruinierte Zeigeruhr, ‚geht‘ sie doch von dem Moment an, da sie stehenblieb, noch viel genauer als jede gegenwärtige oder zukünftige Atomuhr, zumindest zwei Mal an jedem Tag: Dann zeigt sie die Zeit mit einer Exaktheit an, durch die sie das Wunderding des erwähnten Andrew Ludlow und seine trionstelsekundenkleine Abweichung um den Faktor unendlich unterbietet.

Solches Gedankenspiel können wir wohlwollend hinnehmen, in der Art, die geistreiche Engländer sophisticated nennen; oder wir tun sie ab als abstrakten Taschenspielertrick oder überspitzte Haarspalterei, die zu gar nichts führt. Und doch ist auch, was die Uhr uns sagt, nichts Besseres als ein Gedankenspiel. Die Minute in sechzig Sekunden und die Stunde in ebenso viele Minuten einzuteilen, den Tag in 24 Stunden, das bewährt sich seit Langem fast überall auf Erden, wie auch der Brauch, die 365 Tage des Jahrs in 52 Siebentagewochen und zwölf Monate zu bündeln; aber gezwungen hat uns niemand dazu. Zeit, so zergliedert, wie wir sie verinnerlicht haben, ist Setzung, nicht Naturnotwendigkeit. Zeit ist eine Uhr ohne Zeiger und ein Kalender ohne Zahlen.

In einer fragmentarisch aus der Antike überlieferten Komödie lässt der römische Dichter Plautus einen Vielfraß schimpfen: „Ach, dass die Götter doch den zugrunde richteten, der die gezählten Stunden erfand. [Durch all die Sonnenuhren in der Hauptstadt] hat er mir Armem den Tag in lauter Trümmer zerlegt.“ Als unentbehrliche Lebensgefährten dienen uns Uhr und Kalender, aber Freunde und Liebespartner erwachsen uns nicht recht aus ihnen. Denn sie unterminieren einen Gleichlauf des Lebens, wie er den meisten von uns gelegen kommt. Zwar gewannen wir beiden Erfindungen ein hohes Maß an Orientierung und Ordnung ab, ist doch Zeit, wie der US-Physiker John A. Wheeler lapidar definierte, das, „was verhindert, dass alles auf einmal passiert". Aber als Preis dafür verlangen sie, dass wir uns bei vielen Verrichtungen sklavisch an sie halten; und dass sie uns mit jedem Zeigersprung, jedem abgetrennten Kalenderblatt an das unweigerliche Vergehen unseres Erdendaseins gemahnen dürfen. Schon unser allererster Atemzug stellt unseren Körper auf das Gleis, das ins Altern führt und in der Zersetzung seine Endstation erreicht, und der erste Tag unseres Lebens ist der erste unseres Sterbens. Krampfhaft klammern wir uns am Leben fest, um jede Stunde zu nutzen und aus jedem Tag herauszuholen, was wir für ‚das Beste‘ halten. Jener Eile und unserem daraus erwachsenden Empfinden, ‚keine Zeit‘ zu haben, öffneten bereits fernste Vorfahren die Hintertür weit und weiter in dem Maß, wie sie lernten, die Zeit horologisch und kalendarisch zu messen. Immer weniger durfte das Dasein einfach seinen Gang gehen. Ins Leben kam, sich steigernd, Tempo. Ein Papiertaschentuch heißt so, denn etwas Triviales wie das Schnäuzen muss schnell gehen.

Gleichwohl nahmen sich die ersten Zeitforscher, die Sterngucker der Ur- und Frühgeschichte, reichlich Zeit: Engelsgeduldig und mit imponierendem Unterscheidungsvermögen, noch dazu unbewehrten Auges, folgten sie den Wegen der Gestirne und Planeten am Firmament. Indem die Erde sich um die eigene Achse dreht und die Sonne umwandert, und indem der Mond, seine Position zur Erde verändernd, verschiedene wiederkehrende „Phasen“ zeigt, boten sich den frühen Astronomen Beobachtungen, die sie dabei lenkten, den Tag, den (Mond-) Monat, das Jahr zu definieren. Als Erste stellten wohl die Ägypter vor etwa sechstausend Jahren Kalender auf – wie es scheint, noch vor der Erfindung der Zeichenschrift –, wie überhaupt die Himmelskundler im alten Orient den Kurs der Himmelskörper immer eingehender durchschauten und sehr früh zu staunenswerten Erkenntnissen gelangten. Auf ein ägyptisches Vorläufer-Modell ging der Julianische Kalender zurück, den der Diktator Gaius Julius Caesar im Jahr vor seinem Tod, 45 vor Christus, der römischen Noch-Republik verordnete; er fügte, wie bald im ganzen lateinischen Europa üblich, alle vier Jahre einen Schalttag ein. Im Rom der Renaissance reformierte Papst Gregor XIII. 1582 die antike Zeitrechnung; der unter seinem Namen bis heute gebräuchliche Kalender mit seiner verbesserten Schaltjahres- und -tagesregelung bezieht sich wesentlich genauer auf die Dauer des Sonnenjahrs; dies und das Kalenderjahr driften erst nach 3333 Jahren um einen Tag auseinander. Die zumeist lateinische Wurzel fast aller deutscher Monatsbezeichnungen, nicht nur der bereits genannten, nahm durch den Wechsel nicht Schaden: Von den römischen Göttern Janus uns Mars rühren Januar und März her, Mai und Juni von Maia und Juno; nach den Imperatoren Gaius Iulius Caesar und Augustus heißen Juli und August. Auf dem Verb februare, lateinisch für reinigen, fußt der Februar, der damit auf den Termin gewisser altrömischer Riten verweist. Allein die Bezeichnung April fällt durch Reste von Undurchsichtigkeit aus dem etymologisch gesicherten Rahmen; manche meinen, er könne, weil er das Tor zum Frühling „öffnet“, auf dem lateinischen aperire beruhen. Dass der Gregorianische Kalender heute in fast allen Ländern auf Erden gilt, ist eine Wirkung des Kolonialismus, mit dem die europäischen Wirtschaftsnationen in der frühen Neuzeit begannen, und lässt sich unterm Siegel der Globalisierung gar nicht anders mehr denken.

Der Kalender ist eine Frucht des menschlichen Bestrebens, über den Tag hinaus zu blicken und ihn nicht einfach als Wiederholung des vorangegangenen zu unterschätzen. Als herausragende Kulturleistung muss er gelten, weil sich erst durch ihn die Kulte der Religionen und die gemeinschaftsstiftenden Festtage in Sippe und Stamm, eine ausgereifte Landwirtschaft und eine effiziente Verwaltung managen ließen. Unter den Forschungsgebieten der mittelalterlichen Wissenschaft rangierte die Computistik bei den angesehensten, weil sie das von Jahr zu Jahr veränderliche Datum des Osterfestes, des ersten und höchsten christlichen Feiertags, bestimmte: „Wie der Magier muss der Priester genau sein, soll sein Zauber Wirkung haben“ (Bernd Roeck). Den angeblichen Zauber der Jahrhundertwenden, die Kunde von den teils hohen Erwartungen, teils schlimmen Befürchtungen des Massemenschen angesichts von Jahreszahlen mit der seltenen Doppel-Null, der noch zehnmal rareren Dreifach-Null am Ende, den hat Arndt Brendecke pünktlich noch 1999 als Mär entlarvt: Weil Hoffnung und Verunsicherung zu allen Zeiten miteinander ringen, so tun sies auch „in den 90er-Jahren eines Jahrhunderts“. Schon vor dem Jahr 1000 peinigten Endzeiterwartungen unsere Vorfahren, und das nicht weniger quälend; von der Kirche angeheizt, saß solche Furcht fest in ihrem Denken. Übrigens spricht Brendecke auch das Urteil in dem –dreihundert Jahre alten – Hin und Wider um die Frage: Wann beginnt ein Jahrhundert? Schon mit der Doppel-Null? Hob das 21. Jahrhundert, mithin das dritte Jahrtausend, im Jahr 2000 an oder doch erst am 1. Januar 2001? „Letzteres ist richtig: Ein Jahr null kennt die Ordinalzählung der Jahreszahlen nicht, so wie sich auch ein Neugeborenes von Geburt an in seinem ersten Lebensjahr befindet und dabei natürlich – streng genommen – null Jahre alt ist.“ Eine Dekade, etwa von Tagen, erkennen wir ja auch in einer Reihe vom ersten bis zum zehnten Tag und nicht vom ‚nullten‘ bis zum neunten. Wann auch immer: Vor der jüngsten Jahrtausendwende verbreiteten sich Endzeiterwartungen mittelalterlichen Ausmaßes pandemisch: Hätte der wie ein Teufel an die Wand gemalte, dann doch abgewendete millennium bug global Abermillionen Computer und elektronische Steuerungssystemen lahmgelegt, wäre die uns vertraute Welt tatsächlich bereits am 1. 1. 2000 untergegangen.

Das Zählen – und das Vertun dabei – ist in der Fauna uns Menschen vorbehalten. Den Tag aber einigermaßen zu taxieren, das leisten entwickelte Tierarten auch. Wie unsere steinzeitlichen Ahnen orientieren sie sich zeitlich zwischen Sonnenaufgang und -untergang am Stand des Zentralgestirns, an der Menge von Licht und Wärme, der Länge der Schatten. Für sie ist aber ein Tag wie der andere. Zu Siebener-Einheiten integrierte die Tage humane Intelligenz, und humane Kreativität taufte auch sie auf Namen. Leicht einsehbar richten sich im Deutschen Sonn- und Montag nach Sonne und Mond; beim Dienstag standen, so vermuten Sprachhistoriker, der germanische Kriegsgott Tiwaz und sein Beiname Thingsaz Pate; in der Mitte der Woche, sofern wir sie nach traditioneller Zählung mit dem Sonntag beginnen lassen, steht triftig der Mittwoch. Als Namenspatron des Donnerstags firmiert Donar, der germanische Gott des Donners, als Patronin des Freitags seine Kollegin Freya. Wo der Sonnabend Samstag heißt, hält er Kontakt mit dem Sabbat der Juden. Erst recht flossen Erfindergeist, Versuche und Fehlversuche in reichem Maß zusammen, um dem Einzeltag ein – schon in der Antike bekanntes – Gerüst von zwei Mal zwölf Stunden unterzuschieben: zwölf Haltestellen, denn das etymologische Verwandtschaftsverhältnis der Stunde zu den Wörtern stehen und Stand lässt ahnen, dass es sich bei ihr ideell um eine Art angehaltenen, statischen Zeitpunkts handelt, um eine Verzögerung; jemandem etwas stunden heißt denn auch, ihm einen Aufschub zu gewähren, als hielte man die Zeit bis zur Fälligkeit an. Metaphorisch gesprochen: Mögen die Stunden auch rasen, so bietet uns die Stunde doch, solange sie dauert, einen Aufenthalt, um zu uns zu kommen und etwas zustande zu bringen.

Einen scheinbaren Aufenthalt. Denn natürlich basiert die Funktion neuzeitlicher Uhren auf Bewegung, auf Schwingungen nämlich, ob es nun molekulare sind wie bei der Quarz- und der Atomuhr oder die mechanischen des (im sechzehnten Jahrhundert erfundenen) Pendels oder der gut 340-jährigen Unruh. Anders und doch wahlverwandt das Prinzip der mancherlei vormodernen Uhrmodelle: In der Wasseruhr der Antike, der Sanduhr des späten Mittelalters nahm das Quantum der Flüssigkeit oder der Körner, durch eine Öffnung im Gefäß entschlüpfend, ablesbar ab, bei der Öluhr sank der Pegelstand des Brennstoffs, bei der Kerzenuhr die Höhe des Wachsstocks, je mehr davon zur Flamme wurde … – je mehr Mangel am Brennmaterial herrschte, desto weniger Zeit ‚hatten‘ die Benutzer, bis sie nachrüsten mussten. Hinsichtlich der Energieversorgung bewahrt sich die vor etwa 3300 Jahren aufkommende Sonnenuhr naturgemäß die größte Unabhängigkeit, denn sie benötigt keine Triebkraft, nur Licht, das den wandernden Schatten wirft; und allerdings verliert sie bei bezogenem Himmel, erst recht im Dunkeln ihre Brauchbarkeit völlig. Indem die Europäer endlich die mechanische Uhr ersannen, liefen sie China und dem islamischen Orient den Rang als Vorreiter des Fortschritts in der Welt ab und machten sich selber dazu.

Rund um die Uhr schufen wir ein ausgedehntes Symbol- und Metaphernfeld. Dass die Zeit verrinnt, versinnbildlicht wohl kein Zeitmesser eindringlicher als die Sanduhr; tatsächlich gehört sie, in der Hand des Knochenmanns, ikonografisch zu den beliebtesten Attributen für Allegorien der Sterblichkeit. Anders der mechanische Räder-Chronometer – dessen Erfinder, wohl ein genialer norditalienischer Klosterbruder am Ende des dreizehnten Jahrhunderts, leider anonym blieb –: Einerseits zwar verhalfen uns erst jene Uhren recht eigentlich zur Urbarmachung der Zeit, zum 24-Stunden-Tag, durch den wir uns hetzen lassen, demgemäß wir unsere Arbeitszeit beschränkend definieren und dem wir, in der Folge, auch unsere Freizeit verdanken. Andererseits können sie in uns die Hoffnung nähren, wir müssten gar nicht obsiegen beim redensartlichen Wettlauf gegen die Uhr, weil die in uns selber steckt. Für unsere Altvorderen spiegelten sich im aufs Feinste gearbeiteten Werk der Uhr die Regulative, die uneingreifbar im Kosmos, unantastbar im Staat walten, und es verschaffte ihnen immerhin eine Ahnung von Regelkreisläufen, wie sie auch ihre Körper buchstäblich am Laufen hielten. Noch immer kann uns der Rundlauf der Zeiger auf einem Zifferblatt mit der wenig willkommenen Vorstellung einer Wiederkehr des Immergleichen schrecken. Aber auch geradezu belebt kommt uns die mechanische Uhr mit den ineinander verzahnten, aufeinander zugreifenden Teilen ihres Innenlebens vor, zumal wenn sie, was seit etwa 1330 zunächst von Türmen herab geschah, aus unsichtbaren Tiefen mittels eines Schlagwerks Laut gibt, als besäße sie eine Seele und Stimme. So mag sie gelegentlich den Verdacht in uns nähren, auch der Mensch sei nicht viel mehr als eine Maschine, zu gut geöltem Wandel fähig, vorausgesetzt, es ergeben sich Möglichkeiten, sie rechtzeitig aufzuziehen, bis sie irgendwann ein letztes Mal abläuft und stehenbleibt. Andererseits schreiben wir, angeregt von der um 1270 aufgekommenen Hemmung – die das Gehwerk der Uhr bremsend daran hindert, auf einmal abzuschnurren –, auch unserem eigenen Lebenslaufwerk ein festes Metrum der Gemächlichkeit zu. Dabei behagt uns der gleichmäßige Wechselschritt der Hemmung durch seine Vergleichbarkeit mit einem gesunden Herzen und seinem rhythmischen Puls.

Modelle der Geschichte

Wann beginnt die Zeitrechnung? Weithin haben sich die Geschichtswissenschaftler daran gewöhnt, den Anfang der Frühgeschichte etwa mit dem Jahr 2000 vor Christus anzusetzen, die Antike, je nach Weltregion und Stand der Hochkultur, von 1000 vor bis 500 nach Christus zu platzieren, dem Mittelalter (ungeachtet der schrägen Fälschungsvorwürfe der Herren Illig und Niemitz) einen Spielraum von 500 bis 1500 freizuhalten und für die Epoche danach und seither von Neuzeit zu sprechen. „Nach Christus“: Wenigstens historisch bleibt der göttliche „Menschensohn“ christlichen Glaubens auch für Atheisten ein Bezugspunkt. Fromme Juden hingegen beziehen sich auf jene Woche vor trickreich errechneten 5781 Jahren, in der Gott die Welt erschaffen habe; und die Römer nahmen das sagenhafte Geburtsjahr ihrer Hauptstadt, 753 vor unserer Zeitrechnung, als Startpunkt für ihre Geschichte an.

Aus heutiger Perspektive betrachtet, lebte der Mönch Dionysius Exiguus am frühesten Beginn des Mittelalters, um das Jahr 500 in Rom, als er aus gottgefälligen Gründen auf das heute fast universal gebrauchte System mit Christi Geburt als Ursprung verfiel. Weit entfernte er sich von den paganen Resten des zerfallenen weströmischen Imperiums, um sich ausschließlich auf die Biografie des Heilands zu verlassen. Aufgrund seiner – später als fehlerhaft erkannten – Berechnungen siedelte Dionysius das Jahr 1 neuer Lesart im römischen Jahr 754 ab urbe condita, nach Gründung der Stadt, an. Darum stehen die gängigen säkularen Vorstellungen von Geschichte und einer durch Gott tätig ins Werk gesetzten Heilsgeschichte nach wie vor untergründig in Kontakt.

Über den Gang der Geschichte als Folge blinder Zufälle oder als invariables Kausalgefüge zerbrechen sich seit jeher weniger die Historiker als die Philosophen den Kopf, spätestens seit beide Zünfte getrennte Wege gehen. Besichtigen wir die Zeitalter aus dem Blickwinkel unserer persönlichen Erfahrungen, so erkennen wir – kosmische und Naturkatastrophen ausgeblendet – wohl nichts, das sich ‚ohne Not‘ zutrug: ohne Beweggründe und Absichten, die in den Menschen lagen. Nichtsdestotrotz muss unser Verstand an einem deterministischen Weltbild scheitern, das in allem eine vollständige Vorherbestimmung schalten sieht. Kaum jemand will die Welt für eine Megastruktur halten, von nichts als Gesetzmäßigkeiten konstituiert, in der alles was ist, gar nicht anders sein könnte, weil sonst alles, was zuvor war, hätte anders sein müssen. So manches unerklärliche Abenteuer – und selbst die Quantenphysik – belehrt uns, dass wir die Kategorien Ursache und Wirkung nicht allzu unverrückbar benützen sollten. Zwar wissen wir alle von größten Verhängnissen, die verhältnismäßig kleinsten Auslösern entsprangen; schwerlich aber glauben wir an den schon sprichwörtlichen Flügelschlag eines Schmetterlings in Brasilien, der einen Wirbelsturm in New York entfesselt, mag der Mathematiker Edward Lorenz ihn in seiner Chaostheorie auch herbeigerechnet haben. Angenommen, vollständige Determination geböte über die Welt, so wären, bei ausreichend leistungsstarker, nämlich sämtliche Menschheitserfahrungen verarbeitender Informationstechnik restlos alle künftigen Ereignisse auf Erden vorausberechenbar, im besten Fall auf Jahrtausende hinaus. Ereignete sich aber auch nur der geringfügigste Fehler dabei, müsste er alle Prognosen als größtmöglichen Unsinn wertlos machen. Angewandt auf etliche Vertreter früherer Geschichtsschreibung besagt dies auch, dass sie notgedrungen jeweils dann falsch lagen, sobald sie von ihrem entfernten Standpunkt aus annahmen, die Menschen eines Zeitraums hätten ihre eingerichtete Welt nicht bloß als Produkt ihrer Vergangenheit verstanden, sondern ahnungsvoll zugleich schon als Fabrikationsort ihrer später so und nicht anders eingetroffenen Zukunft – ein logischer Trugschluss, denn schlauer werden sie stets erst ‚hinterher‘ geworden sein. Wir können, was kommt, nur in Glaskugel oder Kaffeesatz lesen; und natürlich können wirs nicht.

Eins aber prägt uns das Dasein täglich ein: „dass es ein Ende mit mir haben muss und mein Leben ein Ziel hat und ich davon muss“, wie der alttestamentarische Psalmist sang und, in Johannes Brahms’ Requiem, die Oratorienchöre singen. Sollte Geschichte „ein Ziel“ haben, so müsste es ein Ende sein, das sich nicht programmgemäß und unpersönlich als big crunch oder big rip oder big chill durch kosmosumfassende Zerstörung vollzöge, sondern in dem sich – womöglich durch eine überirdische Macht – ein ersprießlicher Zweck für uns erfüllte. Vom Mythos der geschichtsmächtigen, wohlüberlegt geschichtswirkenden „großen Einzelnen“ hat sich die Historiografie nach Jahrhunderten der Heldenverehrung zwar verabschiedet: Geschichte ereignet sich nicht, weil bedeutende Menschen, womöglich titanische Männer, die Dinge der Welt nach ihrem Gutdünken voran brächten. In der biblischen Geschichte taucht er aber noch auf – der ‚größte‘ Einzelne für die Gläubigen, Jesus von Nazareth. Seinen Anhängern offenbart sich an seiner Gottessohnschaft, zu welchem Ende, also wozu, und bis an welche Stelle Geschichte verläuft, also wo und wie sie aufhört. Gott, so die abendländische Heilslehre, folge einem weiträumigen und felsenfesten, für uns unausdenkbaren, aber erfahrbaren Plan; der laufe auf die „ewige Seligkeit“ hinaus, die Erlösung eines jeden, der – statt darüber Bescheid wissen zu müssen – daran „glaubt und getauft wird“. Wenn das kein „Ziel“ ist! Nun aber ist solche Überzeugung Bekenntnis, nicht Erkenntnis, Gewissheit statt Wissen. Im säkularen Sinn wissenschaftlich wird nur der sie nennen, der die Theologie insgesamt als Wissenschaft rundweg akzeptiert.

Aber nach ähnlich zielgerichtet-zweckmäßigen, wenngleich diesseitigen Modellen suchte die Philosophie wiederholt, um sich Geschichte gedanklich anzueignen; nach Möglichkeiten, sie aus der Beliebigkeit des Zufalls wie aus den Zwangsläufigkeiten des Determinismus zu bergen; und allemal aus ihrer – vom überforderten Verstand kaum tolerierbaren – Anfangs- und Endlosigkeit. Als gliedernde Hilfskonstruktion errichteten die Sumerer und Babylonier, erst recht die Kulturen nach ihnen Schemata von unterschiedlichen Weltaltern und deren wechselvollem Nacheinander. Die in der Zahlenmystik aller Zeiten und Völker bedeutsame Vier trat auch hierbei in ihr Recht. Mit vier Metallen konnotierten antike Dichter und Denker die Zeitalter: Auf das „goldene“ des urzeitlichen Paradieses ließen sie, mit sinkendem Gehalt und Wert, ein „silbernes“ und ein „bronzenes“ folgen, bis sich in einem Zeitalter des Eisens – oder, um seine Schäbigkeit noch nachdrücklicher zu verdeutlichen, des Tons – das Menschengeschlecht liquidiert. Geradezu allegorisch eine nicht unähnliche Darstellung der jüdischen Bibel: Im Buch Daniel deutet die hebräische Titelgestalt dem babylonischen König Nebukadnezar einen Traum, in dem sich der Tyrann vor einem säulenartigen Menschenmonument stehend erblickt hat. „Das war schrecklich anzusehen“: Aus Gold bestand der Kopf, während Silber die Arme und Erz den Bauch und die Schenkel bildeten; die Füße aber, aus Eisen und Ton, waren so verwittert, dass ein rollender Stein sie zerbrach und die ganze Bildsäule einstürzen ließ. Deutend identifiziert der Prophet den König als „goldenes Haupt“; die auf ihn folgenden Reiche, so kündigt er an, würden immer mehr an Macht verlieren, bis ein anderes Imperium, nämlich ein von Daniels Gott Jahwe aufgerichtetes, „alle diese Königreiche zermalmen und verstören wird. Aber es selbst wird ewiglich bleiben.“

Um die Zeitenwende im römischen Reich mit dem Christentum konkurrierend, koppelten die sonnenverliebten Mithras-Mysterien die vorsokratischen Elemente Feuer und Luft, Wasser und Erde an eine Reihe von vier Perioden an, die einander durch Untergang ablösen. Ebenso von vier Großreichen sahen viele Chronisten des Mittelalters die Weltgeschichte getragen: von dem der Assyrer und dem der Perser, dann dem makedonischen Reich Alexanders des Großen und schließlich vom Imperium Romanum, das die Autoren in die Gegenwart des Heiligen Römischen Reiches weiterdachten. An der Zahl sechs hingegen, an den arbeitsreichen Schöpfungstagen und einer gleichfalls sechsstufigen Skala der Lebensalter, orientierte sich der Kirchenvater Augustinus, als er im frühen fünften Jahrhundert in seinem Hauptwerk DE CIVITATE DEI (Der Gottesstaat) ein Halbdutzend Weltalter postulierte: das Adams und das der Sintflut, das Abrahams und das Davids, das der Babylonischen Gefangenschaft des Hebräervolks, schließlich das Jesu Christi, das endend ins Jüngste Gericht mündet. Gleichfalls an den Geschehnisgang und die Prognosen der Heiligen Schrift angelehnt, wurden neben Schemata mit vier Etappen auch fünf-, gar achtstufige ersonnen.

Oder dreischrittige. Rom kann mancherlei sein, dreierlei: ein antikes Imperium; die vielbeschworene „ewige“ Stadt; eine Idee. Einfach ein Punkt auf dem Planeten war diese eigen- und einzigartige Siedlung nie, sondern sie gibt, seit 2500 Jahren schon, ein Leitmotiv, einen Schauplatz, einen Inbegriff für Geschichte und Geist, Kultur und Spiritualität. Allerdings erwies sich mit dem Niedergang des antiken Westreichs im fünften Jahrhundert, dass Rom als Wille und Vorstellung keineswegs an die italienische Halbinsel fixiert war. Schon 324 hatte der „große“ Kaiser Konstantin das östliche Byzanz zum Zentrum seiner Macht erkoren und ihm, als Konstantinopel, seinen Namen aufgedrückt: Dies „zweite Rom“ formte später, nach dem „morgenländischen“ Schisma von 1054, sein eigenes Kirchendogma endgültig aus. Erst nach über tausend Jahren, 1453, weihten die osmanischen Muslime die christliche Metropole dem Untergang und ihre gigantische Hauptkirche, die Hagia Sophia, als Moschee. Fortan beanspruchte die russische Christenheit den einzig wahren Glauben für sich und ernannte Moskau, als „drittes Rom“, zum Mittelpunkt der Orthodoxie. Als Erster ließ sich der „schreckliche“ Iwan IV. zum Cäsar krönen: zum Zaren. 1547 geschah das; da feierten im Westen, in Rom zumal, Geisteswelt, Menschenbild, Formensprachen der unvergessenen Antike machtvolle Urständ: als Renaissance. In Mussolinis Faschismus – der nach den fasces, den Rutenbündeln altrömischer Staatsbeamter, so hieß – sollte das erste weltbeherrschende Imperium neu erstehen, als viertes Rom. Es kam, zum Glück, nicht dazu. Sondern anders: Heute überwältigt Rom als moderne Weltstadt, erst recht als Simultantheater jahrtausendealter Kulturgeschichte, wie sie sich in ihrer Vielschichtig- und Gleichzeitigkeit nirgendwo atemberaubender erleben lässt. Rom, ob mit oder ohne Vatikan und Papst, lehrt uns glauben: an den genius loci, den übergeschichtlichen Ausnahmerang eines gesegneten Orts, an seinen Spezialcharakter, seinen Schutzgeist und an seine Schöpferkraft.

Im achtzehnten Jahrhundert führte Giambattista Vico, für manchen Kenner der Materie der bedeutendste, mit Descartes und Kant gleichrangige Philosoph Italiens, das Raster eines Wachstums in drei Schritten abstrakter und weitläufig aus. Zwischen 1725 und seinem Todesjahr 1744 publizierte der Neapolitaner eine Abhandlung, worin er sich nicht weniger vornahm als die Grundlegung einer „neuen Wissenschaft über die gemeinsame Natur der Völker“: Eine sowohl theologisch als auch kulturwissenschaftlich ausgelegte SCIENZA NUOVA schwebte ihm vor. Wachsen und Welken, „Stirb und Werde“ sah er in der von göttlicher Vorsehung verbürgten Geschichte (fast) aller Völker turnusmäßig wechseln. Interessant macht ihn in unserem Zusammenhang sein auf fast alle Zivilisationen angelegtes triadisches Modell der Zyklen; allein die jüdische und die aus ihr erwachsene christliche Kultur nimmt er davon aus, da beide unterm Schutz der Offenbarungen ständen, die ihnen der wahre, „ganz Geist seiende Gott“ und seine Schöpfung, die Natur, hätten zuteilwerden lassen. In den übrigen, so Vicos Konstrukt, hat ein Zeitalter der Heroen ein früheres der Götter abgelöst und einem späteren der Menschen präludiert. In der ersten Epoche reflexionslos-wilden, rigoros sinnlichen Heidentums verharren die Menschen schlicht und naiv, ihren Trieben gehorchend, in der Natur, die sie in all ihren Teilen animistisch als beseelt, wenn nicht göttlich, beängstigend auch als übermächtig, unberechenbar, wenn nicht feindlich erleben. Darum eignet dem Menschen ein Drang, sich gegen die Unbilden der Natur durch die Erfindung, besser: Findung eines Gottes oder von Göttern zu schützen, durch Religion.

Dass Vicos Modell von corso und ricorso, von Aufschwung und Rückschwung, zur Hälfte einen Prozess der Evolution schildert, zeigt er besonders im mittleren Zeitalter, dem der Heroen. Als jene bezeichnet er die wenigen durchsetzungsstärksten, tüchtigsten Menschen, die sich zu Anführern der vielen schwächeren aufwerfen, indem sie als deren Lenker und Leiter selbst schöpferische Fähigkeiten entfalten und sich wie allmächtig gerieren. Unter ihrer Führung bilden sich robuste Staaten, deren Gesellschaften freilich wohl oder übel in Klassen oder Kasten divergierenden Wohlstands und ungleicher sozialer Teilhabe zerfallen. Um dies Gefälle zu legitimieren, beruft sich die aristokratische Klasse der Privilegierten auf das Wollen und Wirken göttlicher und transzendenter Mächte, die aber nur Behauptungen eben dieser bevorrechtigten Schicht sind.

Im dritten Äon, der Herrschaft des Volkes, nehmen Abwägungsvermögen und Vernunft unter dem Gros der Menschen zu. Einigermaßen gleich und frei, schließlich aber hart dialektisch stehen sie an einem Scheideweg. Denn zum einen tragen alle Schichten des mondo civile, der politischen Sphäre, Moral in sich – wurzelnd in geheiligter Ehe, familiärem Zusammenhalt und ritueller Bestattung der Toten –; ferner genießen sie Rechtsstaatlichkeit und, durch Jurisdiktion und Kompromiss, vereinheitlichte Lösungswege aus Konfliktfällen heraus. Aber es lockert sich die Sittlichkeit des Einzelnen, die ihm seine Bindung an überweltliche Mächte spendete. Durch zunehmende Intellektualisierung, durch Skeptizismus, Positivismus und die Erosion verbindlicher Gemeinschaftswerte bleibt das Gemeinwohl hinter Eigennutz und unkontrollierten Leidenschaften auf der Strecke. Es kommt zum ricorso, nach der Evolution zur Dekadenz: inmitten kultureller Verfeinerung zum Verfall. Unterm Druck von Gewalt und Gewaltherrschaft, verschwenderischem Luxus und verfilzter Misswirtschaft verrotten die gesellschaftlichen Errungenschaften zur Barbarei.

Sollte niemand sich finden, der dem Unwesen und Untergang überlegen Einhalt gebietet, muss der mühsame Weg zu Licht, Mittag und Verdämmern von Neuem beginnen, sozusagen von einem Nullpunkt der Finsternis aus zum nächsten, Mal um Mal. Weil die Menschen den Aufstieg zu allseitiger Menschlichkeit mit Absicht auf sich nehmen, streitet Vico ab, es könne Zufälliges die Fahrtrichtung der Geschichte beeinflussen. Sofern Zufall etwas anderes ist als das vom französischen Dichter Théophile Gautier vermutete „Pseudonym Gottes, wenn er nicht unterschreiben will“, so widerfährt Geschichte einer Menschheit, die einen freien Willen besitzt.

Einem späten Kollegen und Landsmann Vicos ist dessen Wiederentdeckung zu danken, dem 1952 gleichfalls in Neapel gestorbenen Benedetto Croce: Er rief die SCIENZA NOVA als erstes großes geschichtsphilosophisches System der Neuzeit aus. Zuvor blieb die universalgeschichtliche Rundsicht des frühaufklärerischen Denkers lange Zeit weitgehend unbeachtet. Andere, spätere Gedankengebäude der Gelehrsamkeit vermochten gleich nach ihrer Errichtung weitaus größere Aufmerksamkeit zu erwecken. Etliche basieren auf einer letztlich fortschrittsoptimistischen Beurteilung der Zeitläufte, in denen sich – so die Annahme – Verstand und Vernunft, Gleichheit und Rechtlichkeit, wissenschaftliche, technische und künstlerische Kreativität stetig vermehrt hätten und möglichst vielen zugutegekommen seien. So entsteht das Ideal einer Geschichte nach Plan, die irgendwann durchs höchste Ziel geht.

Dies Wunschbild zu malen, wirkten Georg Friedrich Wilhelm Hegel und Karl Marx nach Kräften und mit intensivster Breitenwirkung mit. Dem Denken Hegels liegt eine Dialektik zugrunde, der zufolge These und Antithese in der Synthese dreifach aufgehoben, nämlich suspendiert, bewahrt und erhöht sind, und das in einem Atemzug; diese Sicht durchdringt auch seine Geschichtsphilosophie. Als Agens tritt der Weltgeist auf, der sich aus allem Geschehen allmählich herausschält. Er tut dies im Zug einer unabsehbaren Serie von Dreischritten: Der Weg führt über Widersprüche, über deren Ausgleich und aufs Neue opponierende Antithesen, bis hin zur vollkommenen Freiheit, zu der die Menschen von vornherein berufen sind. Kein leichter Weg, im Gegenteil; durch vielerlei Furchtbares führt er hindurch. Aber auch das Unheil ist letzten Endes vernünftig, weil für Hegel alles, was ist, höherer Vernunft gehorcht.

Unter der hehren Devise „Ordnung und Fortschritt“ entwickelte Auguste Comte in der ersten Hälfte des neunzehnten Jahrhunderts ein ebenbürtig optimistisches Modell: ein positives – im doppelten Sinn. Zum einen stellte er der Menschheit eine günstige Prognose; zum anderen wähnte er den Menschen dann am Ziel angelangt, wenn sein Geist gelernt habe, nur das „Positive“ für wirklich und wahr zu nehmen, nur das, was er empirisch wahrnehmen und überprüfen könne; als metaphysisch habe er alles zu verwerfen, was angeblich jenseits, neben oder über der Faktizität stehe. So begründete Comte, einer der Väter der Soziologie, von etwa 1830 an die Schule der Positivisten. Auch er bezeichnete drei Schritte zum Ziel hin, allerdings auf einem nur ein Mal zu bewältigenden Weg. In der ersten Phase hielten sich die Menschen an so etwas wie Theologie; um zu klären, woher sie kommen und warum sie existieren, dachten sie sich die Schöpfung insgesamt beseelt, später von etlichen Göttern, noch später von nur einem Gott beherrscht. Dann, in der metaphysischen Periode, setzte sich die Vernunft der Philosophen durch; sie entfernen sich von der Transzendenz, kommen aber nicht umhin, doch weiter zu spekulieren: Was ist der Mensch, wo kommt er her, wo geht er hin? Als drittes und letztes Stadium verspricht Comte eines des Verzichts und des Gewinns in einem: Endlich wendet sich das allgemeine Interesse vollends von den eh unlösbaren Sinnfragen nach ersten und letzten Dingen ab; es ist das „positive“ Stadium einer reinen, allein von Tatsachen ausgehenden und auf sie bezogenen Wissenschaft, die dort taugt, wo die Gesellschaft sie zu ihrem Wohl anwenden kann. (Auf einem anderen Blatt steht, dass der sich mehr und mehr versteigende Philosoph sein Konzept am Ende zu einer diesseitigen „Religion der Menschheit“ oder Menschlichkeit empormystifizierte, die in sakralen Aktionen in der Pariser Kathedrale Notre Dame gipfeln sollte.)

Ähnlich positivistisch projektierten Karl Marx und Friedrich Engels eine gesetzmäßige historische Entwicklung. In ihrem KOMMUNISTISCHEN MANIFEST von 1848 und weiteren Schriften interpretierten sie Hegels Konfrontation der miteinander hadernden Gegensätze zu einer dialektischen Aufeinanderfolge von Klassenkämpfen um. Eine genügsame, gerechte und herrschaftslose Urgesellschaft, so bekundeten die Begründer des Kommunismus, habe erleben müssen, wie das Aufkommen von Eigentum sie korrumpierte. So seien aus ihr die Unterdrückungs- und Ausbeutungssysteme der Sklavenhaltung, des Feudalismus und des bourgeoisen Kapitalismus mit seinen freibeuterischen Fabrikanten und geldschneidenden Banken gesprossen. Auf Kosten vieler, sich selbst entfremdeter Armer mache dies Wirtschaftssystem einige wenige reich, darum würden die Lohnsklaven der Neuzeit, die „Proletarier aller Länder“, schließlich in einem globalen Gewaltakt revoltieren und so den Sturm auf den Gipfel der sozialen Umwälzung anführen; dort, auf wiederum paradiesischen Höhen, thront die finale Gesellschaftsform, eine klassenlose „Assoziation, worin die freie Entwicklung eines jeden die Bedingung für die freie Entwicklung aller ist“ und deren Mitglieder vom Gemeineigentum nur so viel an sich nehmen, wie sie wirklich benötigen. Sie kenne keinen ruinösen Raubbau an der Arbeitskraft mehr, so die Vision, keine Abhängigkeit drangsalierter Knechte von bevormundenden Bonzen. Auf jenem langwierigen und blutigen Opfergang bewahrheite sich die Grundüberzeugung des „historischen Materialismus“: dass nämlich nicht menschliches Bewusstsein den geschichtlichen Prozess, sondern vice versa die jeweiligen historischen Gegebenheiten das Bewusstsein prägten. Die Menschheit, damit sie aus ihrer Misere herausfinde, wird als belehr- und von Grund auf veränderbar gedacht: Das marxistische Utopia oder Dystopia verheißt ein Elysium ohne Staat. Der hat ausgedient.

Umso schwärzer sah Oswald Spengler. „Die Weltgeschichte ist das Weltgericht“, und zwar ein in Permanenz tagendes, proklamierte er in seinem 1918 und 1922 veröffentlichten UNTERGANG DES ABENDLANDES. Seine Betrachtungsweise formt die Geschichte abermals zu Kreisen und scheint dabei sowohl der Anschauung des Augustinus als auch der Vicos verwandt. Spengler – der eurozentrischen Geschichtsschreibung abhold, zudem erbitterter Gegner von Liberalismus und Demokratie und glühender Gefolgsmann Nietzsches, des Propheten der „ewigen Wiederkehr des Gleichen“ – machte als Triebkraft den „Willen zur Macht“ ausfindig. Durch ihn behaupte das „stärkere, vollere, seiner selbst gewissere Leben“ sich gegen das mindere. Acht Hochkulturen reihte er auf und sprach ihnen allen gleichen Wert zu: Babylon und das alte Ägypten, Indien und China, die europäischen Reiche des antiken Griechenlands und Roms, die „magische“ Hochkultur, worunter Spengler frühes Christentum, Byzanz und frühislamisches Arabien zusammenfasste, sowie Mittelamerika. Als achtes Imperium erhöben nun Westeuropa und Amerika das Haupt am höchsten. Jede der Kulturen stehe für sich, keine beziehe sich in irgendeiner Weise auf eine der andern, es könne auch eine die anderen im Wesenskern gar nicht erfassen und ermessen.

Etwa tausend Jahre habe jede der bisherigen dauern dürfen; während dieser Frist hätten ihre ursprünglichen, florierenden Anlagen tief gründend als Gesellschaftsformen aufblühen können, aber als oberflächlich-platte Zivilisationen wieder verwelken müssen. Etwa mit dem zwanzigsten Jahrhundert endeten auch die tausend Jahre des Abendlands, das der Studie den Titel gab. Dem Optimismus des Marxismus setzte der „morphologische“ Bestseller Spenglers, nach dem Ersten Weltkrieg Pflichtlektüre jedes reflektierenden Kopfes, einen Pessimismus entgegen, der jede Kultur auf Erden wie einen Menschen als lebendigen, mit einer „Seele“ begabten und unbedingt endlichen Organismus ansieht. Folglich misst er ihm die Lebensalter jeder menschlichen Biografie bei: eine Kindheit der Magie und der Mythen, eine leistungskräftige Jugend und eine Reifezeit selbstbewussten Schöpfertums; den Schluss markiert eine Spätphase, die ihre spielerische Originalität durch die Vulgarität der Massen in ihren immer größeren und engeren Städten, durch das Kleinklein der Routinen, den Stumpfsinn technischer und bürokratischer Gleichläufe, durch die Sperenzchen eines sich spreizenden, aber entleerenden Intellektualismus lähme und verschleiße. Aus diesem Sumpf könne allein ein neuer „Cäsar“ helfen, den Spengler nicht in Adolf Hitler, dafür in Benito Mussolini sichtete. Dem Glauben an einen Fortschritt und kontinuierlichen Aufstieg des Menschengeschlechts, wie Christentum, Hegelianer und Marxisten ihn hegten, versagte sich Spengler. Dafür scheute er, weil er zwischen den einander so gleichartigen Werde- und Untergängen der Kulturen Analogien fand, vor Wahrsagerei nicht zurück: Auf den 1400 Seiten seines Hauptwerks, so renommierte er, wage erstmals jemand den Versuch, „Geschichte vorauszusagen“ – Zukunft zu wissen.

Weder „große“ Extremgestalten noch cäsarische Übermenschen bietet die Geschichte als Hauptverantwortliche für ihre Affären und Spektakel auf. Ebenso wenig kann sie explizit als Auskunftei oder als Regeln setzende, zu- oder abratende Lehrmeisterin für Gegenwart und Zukunft dienen, mag sie dafür auch von der Antike bis zu Oswald Spengler oftmals hergehalten haben. Heute herrscht allgemein die Auffassung, dass in ihrem Lauf zwar Ereignismuster wiederkehren; keinesfalls aber wiederholen sich ganze Perioden. Nicht einmal das Sinnbild der Spirale, auf der die Menschheit zwar nach oben strebe, aber von Runde zu Runde typische Reizpunkte immer wieder passieren müsse, taugt, schon gar nicht das Symbol des geschlossenen Kreises. Konsequent bis zur Monumentalität spann Spengler seine These aus; trotzdem infiziert sie die Geschichtswissenschaft kaum noch. Wenigstens mag sie als von Gescheitheit satte, ausufernd detailreiche, subtil krisenbewusste Phantasmagorie faszinieren. Durch den imposanten Wuchs ihrer Prämissen zeugt sie auffallend davon, dass die Geschichtsschreibung selbst ihre Geschichte hat. Denn „jedes Zeitalter“, so schrieb schon der Dichter und Karl-Marx-Freund Heinrich Heine, „wenn es neue Ideen bekömmt, bekömmt auch neue Augen“.

Schluss machen

Die Geschichte des Lebens auf Erden, umgerechnet auf die 24 Stunden eines einzigen Tags, lässt dem modernen Menschen nicht viel Zeit: Gerade mal seit drei Sekunden ständen ihm zu. Warum auch immer, entwickelten sich vor etwa 3,8 Milliarden Jahren, gleichsam um null Uhr, Organismen, die aus nur einer Zelle, erst ohne, dann mit Kern, bestanden. Für weit mehr als die Hälfte des Tages blieb es dabei. Erst nachmittags um vier fanden sich Mehrzeller ein. Noch einmal fünf lange Stunden später, um 21 Uhr, löste eine bislang unenträtselte Zündung die „kambrische Explosion“ aus: Mit ihr wuchs die Artenzahl von Schalen- und Weichtieren jäh und außerordentlich. Aus Vorformen der Wirbeltiere bildeten sich eine weitere Stunde danach Knochenfische, während auf dem nach und nach von Insekten und Skorpionen bevölkerten Festland erste Pflanzen sprossen. Dann zog das Tempo an: Um 22.15 Uhr tummelten sich Amphibien, bald auch Reptilien auf dem Trockenen, um 22.45 Uhr schufen sich die Dinosaurier Platz – aber nur für eine Viertelstunde. Vor etwa 66 Millionen Jahren – respektive um 23 Uhr – schlug ein fünfzehn Kilometer großer Gesteinsbrocken dort ein, wo heute die Halbinsel Yukatan auf dem Ozean liegt, verheerte das Klima und tilgte die Riesenechsen zusammen mit drei Vierteln aller anderen Arten vom Angesicht des Planeten. Als dessen Beherrscher traten für jetzt und fürderhin die Säugetiere auf den Plan. Zu guter Letzt blieb den Primaten ein schmales Minütchen vor Mitternacht, sich zu entwickeln und an mancherlei Seitenwegen vorbei schließlich unsere Spezies zu kreieren, den Homo sapiens.

Die Krone der Schöpfung – das mag wohl sein – ist nicht er, sondern die Zelle: der potenziell unsterbliche Einzeller; das Ei. Dem Ende der Dinosaurier als dem fünften Massensterben im Lauf der Erdgeschichte folgt gerade jetzt, mit der von uns angerichteten Vernichtung einer horrenden Zahl von Tier- und Pflanzenarten, das sechste; Biologen sprechen von der „größten Katastrophe der Menschheitsgeschichte“. Wir Menschen brauchen die Natur; die Natur braucht uns nicht. Sie kann uns umso weniger brauchen, wie wir uns anmaßen, in die Uhrwerke ihres Gangs bedenkenlos hineinzugreifen, die ohne uns zu funktionieren begannen und ohne uns funktionieren würden und werden. In der Erzählung DER MENSCH ERSCHEINT IM HOLOZÄN aus der grandiosen Spätprosa des Schweizers Max Frisch sieht sich ein alternder Witwer, namens Herr Geiser, zu totaler Abgeschiedenheit verurteilt: Ein Bergrutsch und sintflutartige Regengüsse haben sein abgelegenes Haus von allen Zufahrts- und Fluchtwegen abgeschnitten, ein Stromausfall hindert Herrn Geiser daran, sich mit der gewohnten Alltagstechnik zu behelfen. Derart in eine vormoderne Monaden-Existenz zurückgestoßen, sammelt er aus allen ihm erreichbaren Quellen, was sich über die Geschichte von Welt und Menschen wissen lässt. Während sich die ihm vertraute Kulturlandschaft um ihn herum unbarmherzig zur Naturlandschaft zurück- und zum Schauplatz einer Apokalypse verwandelt, durchstreift der Einsame in Gedanken, lesend und schreibend seine Innenwelt, stellt sein Erinnern gegen das drohende Vergessen und Vergessenwerden. Schnipsel aus Lexika, Fach- und Sachbüchern fügt er zu einem Erkenntnisfragment zusammen, in dem Naturwissenschaft („Die Summe der Energie bleibt konstant“) und Mythos („Verwandlung von Menschen in Tiere, Bäume, Steine etc. Siehe: Metamorphose“) sich schneiden. Am Ende versucht Herr Geiser, der Vereinzelte, der Abtrennung von allem zu entkommen. Erwartungsgemäß scheitert er tödlich. Die Natur muss ihn, den Gleichgültigen, nicht erst verschmerzen. Sie nahm ihn gar nicht zur Kenntnis.

Kaum den Einzelnen, wohl aber die Menschheit nimmt die Natur zur Kenntnis. Heute sehen sich immer mehr Wissenschaftler vieler Fachbereiche mit schlechtem Gewissen, aber aus gutem Grund veranlasst, auf dem 4,5 Milliarden Jahre langen Zeitstrahl, den die Erde schon im All zurücklegte, das Holozän für abgeschlossen zu halten und unseren Einstieg ins Anthropozän festzustellen. Der Äon, in dem die Menschheit ihre natürlichen Bedingtheiten hinter sich lässt: Etwa mit dem Jahr 1950 setzen die Autoritäten seinen Beginn an, als die „Große Beschleunigung“ Fahrt aufnahm, die erdgeschichtliche Phase, da der Mensch die Geo-, Bio- und Atmosphäre immer unverfrorener und folgenreicher manipuliert. Solche Einflussnahme bekommt uns nicht gut: Wie das Holozän das Zeitalter unseres Werdens, Wachsens und Wirkens auf dem Weg zur Vernunft war, ist das Anthropozän ein Zeitalter – vielleicht Endzeitalter – unserer Hybris, unseres Leichtsinns und unseres allfälligen Unvermögens, auch nur kleiner Weiterungen unseres selbstherrlichen Großprojekts Herr zu werden, das da heißt: „Wir sind wie Gott“.

Immerhin, zu den Errungenschaften unserer Evolution gehört die Reflexion: Wir überlegen uns, worum es sich handelt bei der Zeit, wir wissen uns ganz und gar eingebunden in die dynamischen Prozesse der Welt und von vielen davon direkt oder mittelbar betroffen, und wir analysieren, wie uns dies widerfährt. „Der Mensch“, notiert bei Max Frisch der am äußersten Rand des Holozäns angekommene Herr Geiser, „der Mensch gilt als das einzige Lebewesen mit einem gewissen Geschichtsbewusstsein.“ Aber eben das verliert sich; auch dadurch – und vielleicht gerade dadurch – gibt das Anthropozän sich zu erkennen. Im Zeichen unserer schon jetzt schier unermesslichen Möglichkeiten erscheint es als Zeitalter überhaupt schrankenloser Machbarkeit: als Epoche einer „künstlichen Intelligenz“, die wir willentlich in die Lage versetzen, durch maschinelles Lernen Wirkungsräume unserer eigenen Intelligenz weit zu überbieten und unseren Willen auszumanövrieren.

Im Denken vieler Zeitgenossinnen und Zeitgenossen dominieren die Gegenwart und Zukunft solcher und anderer wissenschaftlicher und technischer Innovationen; als entbehrlich entfallen Blicke ins Früher und Vorher. Zwar blüht in Fernsehprogrammen, Radiosendern und populärwissenschaftlichen Publikationen eine durchaus seriöse Darstellung historischer Themen, aber sie bleiben ein Angebot für spezialisierte Kreise. Der breiten Bevölkerung droht Geschichtslosigkeit, indem kollektive Erinnerungen verloren gehen durch das schwindende Interesse an ihnen. Wo aber das Wissen um geschichtliche Details und Bezüge schwindet, wo Vergangenheit die breite Öffentlichkeit nur mehr in Form reißerischer, unvermittelter Einzelheiten oder als zusammenspintisiertes Verschwörungsblendwerk reizt, da besteht Grund zur Sorge. Mit den Fakten geht auch die Einsicht verloren, dass ebenjene Fakten, um verstanden zu werden, erst interpretiert werden müssen. So drohen viele Menschen, gerade in Perioden der Krise und der Verunsicherung mehr denn je nach absoluten Wahrheiten gierend, anfällig zu werden für welterlösende Demagogien, vordergründigen Fundamentalismus. Aufklärung tut Not, Warnung vor selbstverschuldeter Unmündigkeit. Zwar steht Geschichte so leicht zugänglich wie noch nie auf dem Papier, findet aber in zu viele Köpfe keinen Zugang mehr. Müsste nicht auch dies ein „Ende der Geschichte“ markieren?

Demgegenüber ergötzen die Simulationen der „Kontrafaktischen Geschichte“ unseren Spieltrieb. Sie leiten uns in die Räume der Fiktion. Warum auch nicht: Wenn wir, wie der Herr Geiser des Herrn Frisch notiert, aus allen zoologischen Spezies durch unser Geschichtsbewusstsein herausragen, so noch mehr durch die allein unserer Spezies verliehenen Macht, frei andere Welten zu imaginieren als die Welt, die dem Diktum Ludwig Wittgensteins zufolge „der Fall ist“. Hier wird, was sich Historikern gewöhnlich verbietet, nämlich das spekulative Planspiel, zur Methode erhoben und gewährt verwegenen Ableitungen und Induktionen, mutigen Vermutungen und schneidigen Schätzungen so viel Raum wie sonst nirgends. Natürlich darf auch hier Fantasie nur walten, solange sie sich auf ein gegebenes Fakten-Substrat einlässt. Zum Rang eines deutschen Sachbuch-Klassikers brachte es 1989 beispielhaft das Was-wäre-wenn-Szenario WENN HITLER DEN KRIEG GEWONNEN HÄTTE, worin Ralf Giordano dem Untertitel folgend „Die Pläne der Nazis nach dem Endsieg“ zusammentrug und hochrechnete. In FATHERLAND von Robert Harris aus dem Jahr 1992 und der Amazon-Serie THE MAN IN THE HIGH CASTLE von 2015 (nach Philip K. Dicks bereits 1963 erschienenem Thriller) treten, bei gleicher Ausgangsfrage, die grauenhaften Konsequenzen mit den plastischen Konstrukten des Romans und des Films hervor.

Anders als im englischen und US-amerikanischen Raum weisen hierzulande viele Fachleute die „Kontrafaktische Geschichte“ als halbseidene und zwecklose Spielerei zurück. Tatsächlich hilft sie dem Wunsch nicht weiter, gemäß dem Altkanzlers Kohl „die Gegenwart [zu] verstehen und die Zukunft [zu] gestalten“. Wohl aber lässt sie, indem sie an sogenannten Divergenzpunkten oder nexus stories von Weichen stellender Relevanz festmacht, Fachleuten freie Hand, ansonsten vernachlässigte Variablen mit verändertem Gewicht zu beschweren und in ihrer Durchschlagskraft zu erproben; den Blick auf die Geschichte selbst entschleiert sie, befördert uns also auf eine Metaebene, auf der wir dann doch nochmals darüber nachdenken, wie der kraftlose Schlag eines Schmetterlingsflügels einen geschichtlichen Sturm herbeiführen mag. Nicht ganz grundlos machen Anhänger jener unbefangenen, dabei ernsthaften Umschrift von Historie geltend, dass alle Historiografie, indem sie Wirklichkeit niemals vollständig, immer nur in wenigen und geringen Ausschnitten erfasst, von vornherein „kontrafaktisch“ tüftelt und deutet, buchstäblich „gegen die Fakten“, nämlich gegen jene Mehrheit der einschlägigen Komponenten, auf die sie Zugriff nicht erlangt. Beim Umgang mit „ungeschriebener Geschichte“ spricht „subjektive Vorliebe immer mit“ (Alexander Demandt). Beim Schreiben von Geschichte auch. Wo sich das Kontrafaktische mit der Faktizität kreuzt, vermischen sich Geschichte und Geschichten, Erforschtes und Erzähltes besonders dicht.

Aber gibt es Geschichte, so wie es sie früher gab, überhaupt noch. Früher – das soll heißen: vor dem Fall der Berliner Mauer, dem Zerfall der Sowjetunion, vor dem Ende des alten Ost-West-Konflikts und Kalten Kriegs. DAS ENDE DER GESCHICHTE hat Francis Fukuyama ausgerufen. Einen längst für abgetan gehaltenen Glauben an die Unbezwingbarkeit des Fortschritts wiederbelebend und rekurrierend auf Hegels dialektisches Modell geschichtlicher Aufwärtsentwicklung, sah der US-amerikanische Politologe das Finale 1989 gekommen. Liberalismus und Kapitalismus westlicher, letztlich amerikanischer Provenienz hätten sich unwiderruflich durchgesetzt, argumentierte er; mit der künftig für unvermeidlich erachteten Ausbreitung der Demokratie seien „die endgültige Form menschlichen Regierens“ und das Ende aller Ideologien erreicht. Daraus wurde nichts. Auch den islamistischen Massenmord durch den Terroranschlag vom 11. September 2001 in New York schätzte Fukuyama falsch ein: Zwar werde der Westen fortan ein anderer sein, nicht aber durch Repressionen, Intoleranz und Fremdenfeindlichkeit, auch nicht durch ein „noch stärker gespaltenes oder isolationistisches Amerika. Vielmehr gibt es Anzeichen dafür, dass die Tragödie das Land tatsächlich nach innen stärker und einiger machen wird und international zu konstruktiverer Beteiligung veranlassen könnte.“ Kontrafaktische Prognosen: Es kam ganz anders, zumal 2017 mit dem Amtsantritt Donald Trumps als US-Präsident. „Geschichte voraussagen“, Zukunft wissen: Das lässt sich nicht machen.

Heute sieht wohl kein nüchterner Betrachter mehr die Geschichte am Ende. Aber mit gewissen unbequemen Debatten sollten es die Träger des öffentlichen Diskurses doch endlich gut sein lassen – zumindest meinten und meinen das nicht wenige. Am 6. Juni 1985 veröffentlichte der Berliner Geschichtswissenschaftler Ernst Nolte in der FRANKFURTER ALLGEMEINEN ZETUNG eine Bewertung des Nationalsozialismus, wobei er seine Position so formulierte, dass ihm Gegner alsbald vorwarfen, er versuche den Genozid der Deutschen an den europäischen Juden herunterzuspielen und zu relativieren. Seither streiten führende und hellste Köpfe darüber, ob sich Hitler mit Stalin, das KZ-System und der nationalsozialistische Holocaust mit der Quälerei und dem Massenmord im „Archipel Gulag“ der Sowjetunion vergleichen lassen oder ob die deutschen Verbrechen einzigartig in der Weltgeschichte dastehen. Trugen Hitler, seine Schergen und Gefolgsleute die Verantwortung allein, oder lag die Schuld beim deutschen Volk insgesamt? Und dürfen wir Deutschen je aufhören, uns schuldig zu fühlen …? Die Debatte blieb unentschieden. Dass sie überhaupt ausbrach und aufflackert, zeigt, wie dringlich sie war und ist. Auf die Gräuel der eigenen Vergangenheit muss niemand dauernd durch den Feldstecher blicken, der alles unangemessen in scheinbar unmittelbare, unentrinnbare Nähe zurückholt. Vor allem aber sollte man das Fernglas nicht verkehrt herum halten: Für so winzig und entrückt, wie die gestrigen, aber nicht verjährten Schrecken dann aussehen, dürfen wir sie beileibe nicht halten.

Was wäre, wenn Hitler den Krieg gewonnen hätte? Oder gar nicht erst geboren worden wäre? In einer groteskgrausigen KÜSSCHEN KÜSSCHEN-Geschichte führt Roald Dahl als Meister des kunstreich inszenierten Sarkasmus zu den allerersten Anfängen des Diktators zurück. Unter der Überschrift GENESIS UND KATASTROPHE stellt er eine im Text bis fast zum Schluss namenlose, brave Frau vor, die im Jahr 1889 vor dem Geburtshelfer ihres Vertrauens ihre Befürchtungen ausbreitet: Vier Mal kam sie im Lauf von fünf Jahren in die Hoffnung; drei Mal blieben ihr Mutterfreuden versagt, denn keins der Kinder überlebte. Nun hat sie, in einem Braunauer Gasthof, zum vierten Mal entbunden, unter Qualen, selbst dem Tode nah. Geschwächt wendet sie sich an den Mediziner, sehnsüchtig lauscht sie den trostreichen Aussichten, die er dem Neugeborenen zuspricht: Gesund sei das Kind, Frau Hitler müsse sich nicht ängstigen, er werde leben, der kleine Adolf … Die Frohbotschaft als Menetekel, Kindersegen als Menschheitsfluch: Untergründig und doch schamlos stößt der Schriftsteller kontrafaktische Fantastereien in unseren Köpfen darüber an, wie die Geschichte verlaufen wäre, wie die Welt heute aussähe, hätte einer der schrecklichsten Menschen seit Menschengedenken schon als kleiner Liebling im Säuglingsalter das Zeitliche gesegnet. Nie werden wir erfahren, wie es, ‚gesetzt den Fall‘, ‚unter Umständen‘, ‚vermutlich‘ gewesen wäre; es tritt ja nicht einmal jemand auf, der uns verbürgte, „wie es wirklich gewesen“ ist.

Offenbar lässt unselige Geschichte sich ‚bewältigen‘, weil die Zeit, auch wo sie Wunden nicht heilt, zumindest Schmerz und Elend lindert. Im Januar 2020, mit Blick auf das 75 Jahre zuvor befreite Vernichtungslager Auschwitz, sprachen sich bei einer Erhebung sechzig Prozent der Befragten dagegen aus, mit dem Gedenken an die Entsetzlichkeiten des Nationalsozialismus ein Ende zu machen. „Schlussstriche“ lassen sich nicht ziehen, nicht unter Hakenkreuz und Holocaust, auch nicht unter vierzig Jahre realsozialistische DDR: nicht unter die dauerhaften Debatten darüber; schon gar nicht unter das notwendige Erinnern.

Gern aber triumphiert unser Planet über all unsere Debatten, Zwänge und Erinnerungen, indem er uns die Gewaltigkeit der Zeiten und ihrer Dauer als Schock vergegenwärtigt. 1991 trat uns schlagartig ein Mann aus dem schwindenden Eis des Tisenjochs entgegen: ein Mann aus der Jungsteinzeit und doch ein Mann aus Haut und Knochen. So anschaulich mumifizierte der Südtiroler Dauerfrost den „Ötzi“, dass wir ihm 5300 Jahre nach seiner Ermordung wie einem unlängst Verstorbenen ins Gesicht blicken und Paläobiologen in seinen Innereien lesen, woraus er sich seine letzte Mahlzeit bereitet hat. Sogar lebendige Überbleibsel aus noch weit ferneren Vergangenheiten beschert uns die Erde, als ob sie unserem handspannenlangen Dasein spöttisch eine Nase drehen wollte. „Unser Leben“, wussten schon die biblischen Psalmisten, „währet siebzig Jahre, und wenns hoch kommt, so sinds achtzig Jahre“; in einem Wiener Labor hingegen gedeiht eine Lichtnelke der Gattung Silene linnaeana, die aus 32 000 Jahre alten Samenresten gezogen wurde und sich ohne viel Aufwand vermehren lässt: zart prangende Blüten aus der Eiszeit.

Schluss macht die Geschichte nie, mag es auch dreizehn schlagen, uns die Zeit lang werden und das Maß voll erscheinen. Anfang ist immer. Und das Ende ist da, nur lässt es noch auf sich warten.

Wir sind wie Stunden

Подняться наверх