Читать книгу Was macht uns einzigartig? - Winfried Rorarius - Страница 23

Neuere physikalische Theorien

Оглавление

Beginnen will ich mit der Theorie des sich ausdehnenden (expandierenden) Universums, die 1929 dmnemotechnischener amerikanische Astronom Edwin Hubble (1889–1953) aufstellte. Schon vorher hatte er entdeckt, dass es neben unserer „Milchstraße“ (Galaxie) noch andere (Hunderte von Milliarden mittlerweile) Galaxien sowie Quasare im All gibt, die sich übrigens mit Entfernungszunahme schneller von uns fortbewegen, wie sich aus einer spektralanalytischen Rot-Verschiebung, dem sog. Doppler-Effekt, erschließen lässt. Auf diese Weise gelangte man zu der fast selbstverständlichen Annahme eines zeitlichen Anfangs des Universums. Inzwischen nimmt man an, dass die Ausdehnung vor ca. 13–15 Milliarden Jahren mit einem Ur-Knall (Big Bang) begonnen hat, und vermutet, dass sich dieser auf der Grundlage eines als Singularität bezeichneten „schwarzen Loches“ in einer gewaltigen Explosion ereignete. Nebenbei werden auch sonst im All solche „schwarzen Löcher“ vermutet, die eine unvorstellbare Materie-(Masse-)Dichte besitzen.

Einen überzeugenden Beweis für jene Anfangsexplosion lieferte die 1965 von den amerikanischen Physikern und Nobelpreisträgern Arno Penzias und Robert Wilson zufällig entdeckte, unter 3 Grad Kelvin (2,7 °) liegende kosmische Hintergrundsstrahlung. Diese ist die Folge einer mit der mittlerweile sehr weit fortgeschrittenen Ausdehnung des Alls verbundenen Abkühlung und erscheint so stark rot-verschoben, dass sie einer Mikrowellenstrahlung gleicht und dadurch einen überaus hohen Entropie-Wert aufweist. Weil es sich um einen progredienten Prozess handelt, bedeutet dies, dass die Abkühlung, wenn auch sehr allmählich, fortschreiten und damit im gleichen Maße der Entropie-Wert zunehmen wird.

Dabei ist noch erwähnenswert, dass jene Strahlung anfänglich offenbar nicht gleichmäßig verteilt war, sondern geringfügige Intensitätsschwankungen, also eine Anisotropie aufwies – ein Sachverhalt, der 1999 mittels des Satelliten „COBE“ entdeckt wurde. Daraus folgerte man, dass das frühe Universum, und zwar aufgrund der offenbar damit zusammenhängenden quantentheoretischen Unbestimmtheits-Relation, nicht durchgehend regelmäßig gestaltet war, woraus sich später eine unterschiedliche Materie-Dichte und - Verteilung ergab, die zu der astrophysikalischen Vielfalt von Sternhaufen, Galaxien, Sternen, Planeten, Monden etc. führte.

Bei diesen stellaren und interstellaren Masse-Zusammenballungen handelt es sich in physikalischer Hinsicht um Schwerkraft-Zentren, die eine gegenseitige Anziehung aufeinander ausüben. Beispielsweise zieht unsere Galaxie wegen ihrer stärkeren Gravitation die schwächere Zwerggalaxie „Sagittarius“ an, verspeist sie gleichsam, weshalb man in diesem Zusammenhang spaßeshalber von einem „kosmischen Kannibalismus“ spricht. Bekanntlich hat für diesen Kräfte-Modus der englische Physiker Isaac Newton (1643 – 1727) am Ende des 17. Jahrhunderts seine mathematische Gravitations-Theorie entwickelt. Nebenbei verwendet man wegen jener reziproken Beziehungen statt der Bezeichnungen Energie oder Kraft den Ausdruck „Wechselwirkung“.

Ausgangspunkt für die weiterführenden neueren Theorien waren die Ende der 80er Jahre des 19.Jahrhunderts von dem amerikanischen Physiker und Nobelpreisträger Albert Abraham Michelson (1852–1931) et al. unternommenen Lichtversuche, die eine Konstanz der Lichtgeschwindigkeit von annähernd 300 000 km/sec, und zwar unabhängig von der Bewegung (Geschwindigkeit) der Lichtquellen, erbrachten. Um aber ungeachtet der unterschiedlichen Geschwindigkeiten der Lichtquellen einen konstanten Lichtwert zu erreichen, müssen Zeitverzögerungen und Raumschrumpfungen vorausgesetzt werden. Dies veranlasste den Physiker Albert Einstein von einer Relativität der Zeit- und Raum-Maßstäbe zu sprechen, wodurch zugleich die Annahme einer überall bestehenden Gleichzeitigkeit in Frage gestellt wurde – eben wegen der überall bestehenden Zeit-Inkonstanz.

Diese Sachlage lässt sich eindrucksvoll am Langewine’schen Theorem oder „Zwillingsparadoxon “ illustrieren. In jenem Paradoxon ist von einem fingierten menschlichen Zwillingspaar die Rede, dessen Alter sich auf etwa vierzig Jahre beläuft. Der eine Zwilling besteigt ein Raumschiff, das sich allmählich mit annähernder Licht-Geschwindigkeit von der Erde entfernt, um nach vierzig Jahren zurückzukehren, währenddessen der andere Zwilling auf der Erde verbleibt. Da aber infolge der riesigen kraft- und arbeitsaufwendigen Geschwindigkeitszunahme (Beschleunigung) eine Zeit-Ausdehnung sowie zugleich eine Raumschrumpfung eintritt, altert der Zwilling im Raumschiff ungleich langsamer als der auf der Erde verbliebene. So verwundert es nicht, dass der Astronaut nach der Rückkehr seinen Bruder nicht mehr antraf, da dieser stärker gealtert und bereits gestorben war. Wie sich in diesem Zusammenhang die Raum-Kontraktion auf den Organismus auswirkt, kann ich hier nicht thematisieren.

Allgemein aber lässt sich der unterschiedlichen gravitativen Raum-Zeit-Geometrie entnehmen, worauf der englische theoretische Physiker Stephen Hawking aufmerksam macht, dass nämlich jedes Individuum sein eigenes Zeitmaß (und Raummaß) hat, das aber abgesehen von der eigenen Masse auch davon abhängt, in welchem Kraftfeld es sich jeweils befindet und wie es sich bewegt (S. Hawking, Eine kurze Geschichte der Zeit, dt., Reinbek, 1988, 51). Unbeschadet dieser Zeit-Raum-Differenzen dürfte indes die vom Ur-Knall (Big Bang) ausgehende, von der kosmischen Gesamt-Masse herrührende globale Zeit-Raum-Geometrie nicht tangiert werden. Infolge dieser neuen Erkenntnisse geriet übrigens die Hypothese von dem das All ausfüllenden, Raum und Zeit konstant haltenden Äther in die Kritik und wurde aufgegeben.

Diese sowohl für die Zeit- als auch die Raum-Maßstäbe ermittelte Relativität gab im weiteren Forschungsverlauf den Anstoß dazu, beide als in sich zusammenhängende Dimensionen zu deuten und zu einer vierdimensionalen (Minkowski’schen) Union zusammenzufassen, so dass man fortan von einer, obschon differierenden, Raum-Zeit bzw. mathematisch von einer Raum-Zeit-Geometrie spricht. So weit in großen Zügen die spezielle Relativitäts-Theorie!

Ausgehend von der kinematischen Überlegung, dass sich die Raum- und Zeit-Maßstäbe schon aufgrund gleichförmiger Bewegungen (Geschwindigkeiten) verändern, lag es förmlich auf der Hand, dass etwas Derartiges erst recht bei unsteten, d.h. ungleichförmigen Bewegungen (Beschleunigungen) der Fall sein müsste. Daraus ergab sich die Einstein’sche Konzeption der allgemeinen Relativitäts-Theorie. Beschleunigungen werden aber durch Kräfteeinwirkungen hervorgerufen. Man denke an die Erscheinung des freien Falles auf der Erde, der eine Beschleunigung darstellt und Folge der Erd-Anziehung bzw. der Gravitation ist. Von hier aus verstand es sich fast von selbst, die „Raum-Zeit “ überhaupt als Funktion der durch die jeweilige Masse bedingten Gravitation zu deuten und von einer daher rührenden unterschiedlichen „Raum-Zeit-Krümmung“ zu sprechen. Oder anders formuliert: Da für die jeweilige Gravitation (Schwerkraft) eine unterschiedliche Masseverteilung verantwortlich ist, müssen auch die Raum- und Zeit-Dimensionen entsprechend variieren. Ein solches ungleichmäßig gekrümmtes, inhomogenes, mehrdimensionales und darum nicht-euklidisches Kontinuum wird „Riemann ’scher Raum“ genannt – ein Gebilde, dem nach der allgemeinen Relativitäts-Theorie der Kosmos gleichen soll.

Trotz der erstaunlichen Geschlossenheit der kosmologischen Theorie Einsteins haben sich Schwierigkeiten ergeben, die besonders die Einbeziehung der anderen Energie-Formen bzw. Wechselwirkungen, z. B. des Elektro-Magnetismus, betrafen. Nur flüchtig kann ich darauf hinweisen, dass Einstein versuchte, eine umfassende und konsistente sog. Feld-Theorie zu entwerfen, was ihm aber nicht überzeugend gelang. Ungeachtet dieser Lückenhaftigkeit konnten für seine allgemeine Relativitäts-Theorie empirische Verifizierungen gefunden werden, die ich stichwortartig nenne. So wurde die etwa alle hundert Jahre erfolgende, bis dato unerklärliche Vorrückung (Präzession) des Perihels (des der Sonne nächsten Punktes) der Merkur-Bahn als Auswirkung der solaren Gravitation erkannt. Ferner konnte die Ablenkung des Lichtes beim Passieren des Gravitations-Feldes schwerer Massen als Folge der besonderen Licht-Natur (Photonen-Anziehung) bestimmt werden (A. Einstein, Relativitätstheorie, Braunschweig, 1954, 77ff.).

An dieser Stelle will ich an einen weiteren wichtigen „Befund“ Einsteins erinnern. Es handelt sich um die Aufstellung des Äquivalenz-Prinzips zwischen Masse und Energie, dem er in der inzwischen berühmt gewordenen Formel E = mc2 Ausdruck verlieh. Mit dieser Gleichsetzung waren weitere bedeutende Konsequenzen verbunden – so die Möglichkeit einer Dematerialisierung von Masse in Energie wie umgekehrt einer Umwandlung (Materialisierung) von Energie in Masse. Für die erste Möglichkeit spricht ein „Massen-Defekt“, wie er z. B. bei der Kernverschmelzung von Wasserstoff-Atomen zu Helium-Kernen in der Sonne auftritt und berechnet werden kann. Die andere Möglichkeit ergibt sich aus der Überlegung, dass kinetische Energie, wie sie bei hohen Geschwindigkeiten auftritt, zu einem Massen-Effekt führt, wie es bei der erwähnten Licht-Ablenkung der Fall ist. Das hat andererseits zur Folge, dass Massen selbst der kleinsten Teilchen (Nukleonen) nicht Licht-Geschwindigkeit erreichen können, weil dann ein unendlicher Masse-Zuwachs eintreten würde. Dies belegt erneut, dass die Lichtgeschwindigkeit „c“ eine Grenzgeschwindigkeit darstellt. Dafür kämen allenfalls „virtuelle Teilchen“ (Photonen, Gluonen etc.) in Frage, weil sie keine Ruhe-Masse besitzen.

Mit solchen Hinweisen dringt man in mikrokosmische Dimensionen vor, wo die Quanten-Theorie angesiedelt ist. Ihr zugrunde liegt die Anfang des vorigen Jahrhunderts von Max Planck (1858–1947) konzipierte Quanten-Hypothese, wonach sich Energien, physikalische Kräfte oder Wechselwirkungen nicht kontinuierlich, sondern „gequantelt “ (sprunghaft) ausbreiten. Etwa zur selben Zeit wurde diese Ansicht durch Einsteins Lichtquanten-Hypothese unterstützt. Es war abzusehen, dass diese neueren physikalischen Erkenntnisse ein nicht leicht vollziehbares Umdenken erfordern würden.

Wie schwierig es sich tatsächlich gestaltet, lässt sich daran ablesen, dass Mitte des 19. Jahrhunderts der englische Physiker C. Maxwell (1831–1879) eine Theorie des Elektromagnetismus aufstellte, nach der es sich bei den physikalischen Energien, im Gegensatz zur späteren Quantenhypothese, um ein Spektrum von kurz- bis langwelligen Strahlungen, das sichtbare Licht eingeschlossen, handelt, die sich kontinuierlich – wellen- oder feldartig – im Raum fortpflanzen. Aber eben dies entspricht nur dem einen Aspekt. Nach den neueren Versuchen erweisen sich die „kontinuierlichen“ Strahlungen zugleich als „gequantelte Phänomene“. Hinzu kommen weitere, vorher nicht gekannte widersprüchliche Sachverhalte. Denn es lassen sich experimentell an den korpuskularen Elementar-Teilchen (Elektronen, Atomen etc.) Wellenerscheinungen nachweisen, die gleich elektromagnetischen Wellen Interferenzen (Brechungen) am Bildschirm zeigen. Nach diesen Entwicklungen hatte es den Anschein, als ob der alte Streit zwischen Newton, mit seiner Korpuskular-Theorie des Lichtes, und dem holländischen Physiker Huygens (1629–1695), mit seiner Wellen-Theorie des Lichtes, eine Neu-Auflage erlebte. Aber jetzt ging es bei dieser Paradoxie nicht um ein Entweder-oder, sondern um ein Sowohlals-auch: In der Frühzeit der neueren Physik versuchten die Heisenberg-Pauli’sche Quanten-Mechanik sowie die Schrödinger’sche Wellen-Mechanik dem Rechnung zu tragen. In jüngerer Zeit aber zeichnen sich nach dem Vorbild Newtons Versuche ab, wieder zu einer univoken Teilchen-Physik zu kommen, und zwar in der Theorie der Quantenelektrodynamik (QED) des amerikanischen Physikers und Nobelpreisträgers Richard Feyman, wie seiner gleichnamigen Schrift zu entnehmen ist (dt., München, 2002). Dieser geht davon aus, dass seine Theorie das Problem bzw. die Frage des Wellen-Teilchen-Dualismus zugunsten der Partikel „löst“ (48).

Dagegen äußert die in der modernen theoretischen Physik sehr bewanderte deutsche Philosophin Brigitte Frankenburg gravierende Bedenken, die sie in ihrem Werk Teilchenmetaphysik niedergelegt hat (Heidelberg, 1995). Nach ihr wird in der Physik kein einheitlicher Teilchenbegriff verwendet; ferner stelle das Teilchen selbst nichts anderes dar als einen Mechanismus der Spurenentstehung, sei also kein Einzelobjekt in Raum und Zeit und gleiche daher einem dynamischen Prozess (294f.). So kommt sie zu dem Resultat, dass nach dem heutigen Standardmodell der Elementarteilchen die Materie weder bis ins Unendliche teilbar ist, noch (à la Feyman) aus lauter wohlunterschiedenen Teilchen besteht, so dass eine Mischform von Teilchen- und Feldontologie oder von Atomismus- und Kontinuums-Theorie der Materie angenommen werden muss (297).

Um diese beiden Aspekte auf einen terminologischen Nenner zu bringen, prägte man den Ausdruck „Wellickel“, der sich allerdings nicht halten konnte. Überdies versuchte der Physiker und Nobelpreisträger Niels Bohr (1885–1962), jenen Widerspruch mittels der Einführung eines Korrespondenz-Prinzips erkenntnistheoretisch in den Griff zu bekommen. Danach sollte sich der Korpuskular- bzw. Quanten-Aspekt zum Wellen- bzw. Feld-Aspekt komplementär verhalten – dergestalt, dass, wenn man sich auf den einen konzentriert, der andere aus dem Blick gerät, ohne allerdings tatsächlich zu verschwinden – ein Tatbestand, der in der Unbestimmtheits-Relation Heisenbergs eine Bestätigung findet. Wenn man nämlich den Ort eines Elektrons und dieses damit als Korpuskel festlegen will, geht das auf Kosten der unräumlichen, wellenartigen Geschwindigkeit wie umgekehrt.

In jüngerer Zeit konnte die Physik mit weiteren Überraschungen aufwarten. So ist auf die Entdeckung des amerikanischen Physikers und Nobelpreisträgers Murray Gell-Mann hinzuweisen, der noch kleinere, jedoch nicht isoliert auftretende Elementarteilchen als die bisher bekannten entdeckte. Sie werden Quarks genannt und treten in sechs Typen auf. Beispielsweise fügen sich die Protonen und Neutronen aus je drei UP- und DOWN-Quarks zusammen (M. Gell-Mann, Das Quark und der Jaguar, dt., München, 1996, 45 u. 261ff.).

Ferner sollte Erwähnung finden, dass gegenwärtig mit vier physikalischen Grundkräften (Wechselwirkungen) gerechnet wird – so mit der die Massen auch im Kleinst-Format beeinflussenden Schwerkraft (Gravitation) mit ihren virtuellen Teilchen, den Gravitonen bzw. Gravitationswellen, die allerdings den schwächsten Kräfte-Modus darstellt. Außerdem ist die elektromagnetische Kraft anzuführen mit den elektrisch geladenen Korpuskeln (Elektronen und Protonen) sowie ihren virtuellen Teilchen, den Photonen, die auch Felder bzw. Wellen bilden – Kräfte, die u.a. für den Atom- und Molekül-Aufbau zuständig sind. An dritter Stelle steht die schwache Kernkraft, die bei der Radioaktivität in Funktion tritt. Und schließlich gibt es noch die starke Kernkraft, die mittels virtueller Teilchen, der Gluonen, die Quarks in den Nukleonen sowie diese untereinander in den Atomen zusammenhält. Bis heute ist es nur gelungen, die zuletzt genannten drei Kräfte in einer „großen, vereinigenden Theorie“ (Grand Unified Theory: GUT) zusammenzufassen und diese als Aspekte einer Grund-Kraft anzusprechen.

In diesem Kräfte-Ensemble fehlt die Gravitationskraft, weil man offenbar wegen ihrer erwähnten „Schwäche“ mit ihr experimentell nicht so erfolgreich operieren kann, worauf der theoretische Physiker Pascual Jordan (1902–1980) hinweist (P. Jordan, Atom und Weltall, Braunschweig, 1960, 43). Trotzdem bemüht man sich innerhalb der Forschergemeinde um den Entwurf einer alle Kräfte (Wechselwirkungen) einbeziehenden, noch umfassenderen Theorie, einer sog. Quanten-Gravitations-Theorie. Neuerdings versucht man es mit einer sog. String-Theorie (string, engl.: Faden, Kette, Reihe u.a.), die sich vorerst aber auch nur in tastenden Schritten bewegt. Eine Vereinheitlichung dürfte vermutlich aber nur dann gelingen, wenn man die „schwarzen Löcher“ bzw. Singularitäten in die Theorie einbezieht, weil in diesen die Gravitationskraft so konzentriert ist, dass man mit ihr zwar nicht experimentieren, aber immerhin theoretisch-mathematisch rechnen kann.

Um dies zu ermöglichen und jene universale Theorie auf den Weg zu bringen, wäre es in einem ersten Schritt erforderlich, die allgemeine Relativitätstheorie mit der Quantentheorie zu kombinieren, im Sinne einer Einheits-Theorie, mit der man dann die sehr frühen Stadien des Universums beschreiben und evtl. berechnen könnte. Dabei muss jedoch die schon erwähnte Heisenberg’sche Unbestimmtheits-Relation berücksichtigt werden, die für alle physikalischen Vorgänge in Geltung ist. Sie besagt, dass sich Gesetzmäßigkeiten der (mechanischen) Physik auf mikrophysikalischer Ebene lediglich als stochastische Regeln erweisen und deshalb nur mit Wahrscheinlichkeiten bzw. Zufälligkeiten (Quantensprüngen!) im Geschehen – im Gegensatz zur streng kausal-deterministisch geordneten „Laplace’schen Physik“ – zu rechnen ist.

In der zeitlichen Anfangsphase der Welt mit ihrer „riesigen“ Kontraktions-Dichte und unvorstellbaren Hitze wäre Leben, natürlich auch intelligentes, nicht möglich gewesen. Erst in der nach dem Urknall einsetzenden Phase der Ausdehnung, die geprägt war durch eine Entropie-Zunahme, die Abflachung der Raum-Zeit-Krümmung und eine allgemeine Abkühlung, konnte sich Leben entwickeln. In diesen evolutionären Prozessen sind also thermodynamische, entropische Gesetzmäßigkeiten bestimmend. Arthur Eddington spricht in diesem Zusammenhang von einem Zeitpfeil (arrow of time), der aber nicht allein die zeitliche Richtung von der Vergangenheit in die Zukunft, sondern auch die Dynamik des Entwicklungsgeschehens meint. Davon ausgehend unterscheidet Stephen Hawking drei „Modi“ des Zeitpfeils. Der grundlegende Modus findet im 2. Hauptsatz der Thermodynamik seinen Ausdruck. Dieser besagt, dass alle geordnete, freie Energie eine Dissipation, d.h. eine Umwandlung in ungeordnete, gebundene Energie, nämlich in Wärme, erfährt. Dieser Vorgang ist zudem unumkehrbar (irreversibel).

Ebenso zeigt sich in kosmologischer Sicht ein solcher Ablauf, der mit dem Ur-Knall seinen Anfang und mit der Expansion seinen Fortgang nimmt. Dieses Geschehen bezeichnet Hawking als zweiten Zeitpfeil. Dass es tatsächlich zu einer unumkehrbaren Kumulierung der Unordnung, d.h. zu einem Entropie-Zuwachs im All kommt, wird wie erinnerlich durch die erwähnte kosmische Hintergrund- bzw. Mikrowellen-Strahlung mit ihrem enormen Entropiewert bestätigt. Schließlich findet diese entropische Entwicklung in einem dritten Zeitpfeil, dem psychologischen, ihr subjektives Gegenstück (S. Hawking, Eine kurze Geschichte der Zeit, 183ff.).

In der Tat erlebt der Mensch einen von der Vergangenheit in die Zukunft dynamisch fortschreitenden, irreversiblen Zeit- bzw. Bewusstseinsfluss. An diesem gerichteten subjektiven Zeiterleben fallen einige Eigentümlichkeiten auf: Zuerst die „psychische“ Aufspaltung der grundlegenden physikalischen Raum-Zeit-Union, dass wir also die Dinge und Vorkommnisse getrennt nach ihrer Räumlichkeit und ihrer Zeitlichkeit erfassen, d.h. „orten“ und „datieren“. Zudem besitzt die Zeitlichkeit gegenüber der Räumlichkeit im menschlichen Dasein ein Übergewicht. Schließlich zeichnet sich die Zeiterfahrung des selbstbewussten „Geistes“ durch Gegenwärtigkeit aus, bietet sich präsentisch dar, während ein „Zeitfluss“ sich in der Psyche abspielt und so erlebt wird.

Grundsätzlich ist zu sagen, dass es in einer bestimmten kosmischen Ausdehnungsphase zu einem „mittleren“ und darum erträglichen Entropiestand kam, wo sich die Verhältnisse für die Entstehung von Lebewesen und Intelligenzen als geeignet erwiesen. Insgesamt müssen also zuallererst gewisse physikalische Vorbedingungen erfüllt sein, bevor Leben, in welcher Gestalt auch immer, in dieser Welt erscheinen kann. Aber dass es de facto Ereignis wurde, lässt sich keineswegs aus den zugrunde liegenden, vorbereitenden physikalischen Prozessen sicher ableiten. Dazu reicht selbst die mit unvorhersehbaren Quantensprüngen, also mit Zufälligkeiten argumentierende Unschärfe-Relation nicht aus. Wie man sehen wird, überbieten die biologischen und psychologischen Erscheinungen diese bei weitem, vom menschlichen „Geist“ ganz zu schweigen.

Es bleibt an dieser Stelle noch, einen flüchtigen Blick auf die Theorien über die Zukunft des Universums und auch unseres Sonnensystems und der Erde zu werfen. In diesem Zusammenhang lassen sich kurz gesagt drei anführen: Die erste Theorie denkt sich ein weiter expandierendes All. Die zweite nimmt ein sich abschließendes (sphärisches) Universum an, wie es Einstein aufgrund einer nicht-euklidischen, vierdimensionalen Geometrie vorschlug. Die dritte, die derzeit den größten Zuspruch besitzt, rechnet in einer kaum vorstellbaren Zeit von Milliarden Jahren mit einem „Big Crash“: einem Kollaps des Kosmos sowie seinem Zusammensinken in einem „schwarzen Loch“. Stephen Hawking ist noch einen Schritt weiter gegangen und spekuliert in seiner „Keine-Grenzen-Theorie“ nach dem kosmischen Zusammensturz mit dem Beginn einer neuen Evolution (S. Hawking, Eine kurze Geschichte der Zeit, 175 u. 216).

Was die weitere Existenz unseres Sonnensystems betrifft, so nimmt man an, dass in schätzungsweise 5 Milliarden Jahren, wenn die durch die solare Kernverschmelzung entstehende Energie verbraucht sein wird, in dem Zentralgestirn eine gewaltige Eruption erfolgt, in deren Folge es sich zu einem „roten Riesen“ entwickeln wird. Dessen Ausdehnung wird so gigantisch sein, dass darin selbst die 150 Millionen Kilometer von der Sonne entfernt liegende Erde verschwindet, was ihren endgültigen Untergang bedeutet, wie auch den der anderen Planeten. Nach einer weiteren, längeren Zeit wird der solare „rote Riese“ zu einem „weißen Zwerg“ zusammenschrumpfen. So in etwa dürfte sich die Existenz unseres Sonnensystems, einschließlich Erd-Untergang, gestalten, wenn sich nicht schon vorher auf der Erde, infolge massiver Meteoriten-Einschläge beispielsweise, ähnliche Katastrophen wie am Ende des Erd-Mittelalters (Dinosaurier-Ausrottung) ereignen werden.

Was macht uns einzigartig?

Подняться наверх