ADAUTO LOURENÇO EINE EINFÜHRUNG IN DEN KREATIONISMUS
Dhifa ttyld * „Po*:
„Pne^adon, Qovent
ADAUTO LOURENÇO
EINE EINFÜHRUNG IN DEN KREATIONISMUS
SrlcL
Treuer Verleger
International Catalogue Data at Publication (CIP) (Câmara Brasileira do Livro, SP, Brasilien)
Lourenço, AdautoWie alles begann – Eine Einführung in
Kreationismus / Adauto Lourenço. – São José dos Campos, SP: Editora Fiel, 2007
ISBN: 978-85-99145-38-8
1. Schöpfung 2. Kreationismus 3. Evolution – Religiöse Aspekte 4. Religion und Wissenschaft 1. Titel.
07-7693 CDD-231.7652
Indizes für systematischen Katalog:
1. Kreationismus 231.7652
Copyright ©2007 Editora Field
1. Auflage auf Portugiesisch – 2007
IrlcLeady Publisher
Ein V. Garden City, 3978 Eukalyptuswald
Telefonanlage São Josc dos Campos-SP: (12) 3936-2529
www.editorafiel.com.br
Alle Rechte auf Portugiesisch liegen bei Editora Fiel
Kein Teil dieses Buches darf ohne schriftliche Genehmigung des Autors in irgendeiner Form oder mit irgendwelchen Mitteln, weder elektronisch noch mechanisch, einschließlich Fotokopieren, Aufzeichnen oder Datenspeichern, reproduziert oder übertragen werden.
Herausgeber: James Richard Denham Jr. Redaktionelle Koordination: Tiago J. Santos Filho Rezension: Ana Paula Eusébio Pereira; Francisco Wellington Ferreira und Marilene Paschoal Cover und Layout: Edvânio Silva Künstlerische Leitung: Rick Denham
An meine Frau Sue
Die Schöpfung wäre ohne dich nicht vollständig! ... und sie zu studieren, ohne dich zu kennen, wäre wie der Versuch, dir ein Universum voller … vorzustellen
Galaxien, ohne jemals einen einzigen Stern gesehen zu haben. Ich liebe dich!
An meine Töchter Quezia, Joyce und Sarah,
Ihr habt die Reise, die mich hierher geführt hat, angenehm und voller schöner Überraschungen gemacht ... Ich liebe jeden einzelnen von euch!
An meine Eltern, Jaime und Zoraide,
der mich von den ersten Schritten an gelehrt hat... als alles begann. Es gibt keine passenden Worte, um meine Dankbarkeit auszudrücken.
An viele Freunde und Mitarbeiter,
Dieses Buch ist das Ergebnis dessen, was ich „Teamarbeit“ nenne.
an all jene
die sich ohne Angst und Vorurteile auf die Suche nach der Wahrheit begeben, unabhängig davon, wohin diese Suche sie führt,
Ich präsentiere dieses Buch als ein weiteres Werkzeug, das Ihnen auf dieser Reise hilft.
An den Schöpfergott,
der uns mit Wissen und Weisheit ausgestattet hat, um die Werke seiner Hände zu studieren und zu kennen.
Ihm Ehre, Ehre, Lob und Anbetung!
P r e f á c i o
ix
0 hat Schöpfung/Evolution, weit mehr als faszinierend und auch
umstritten, von großer Bedeutung, denn das Thema Herkunft
sagt uns schließlich, wer wir sind.
Das muss nicht neu sein. Es wurde bereits im antiken Griechenland diskutiert
aus dem 5. Jahrhundert v. Chr., zur Zeit der antiken griechischen Philosophen. Ideen zum
Ob das Universum ewig ist oder nicht, das Leben entsteht spontan
oder erstellt wurden, waren bereits Teil der hitzigen Diskussionen
diese Theorien seitdem.
Aber es stammte aus dem 16. Jahrhundert n. Chr. Das
Menschheit, durch technologische Fortschritte
Gicos, begann solche zu bewerten und zu diskutieren
Vorschläge mit ihren Postulaten,
Annahmen und Vorstellungen über die
Ursprünge, in quantitativer und
üben.
Heute, im 21. Jahrhundert,
wir sehen aus wie entführt
in die Vergangenheit, in dasselbe
Diskussionen, die, für etwa drei
Jahrtausende haben ein Verlangen hervorgebracht
fast unersättlich zu wissen und zu wissen
großes Geheimnis, das immer noch über uns schwebt:
Cuckold Ludo hat angefangen?
Das Hauptziel dieses Buches ist die Aufklärung
Jo h a n n es K e p l e r durch die Verwendung der Umgangssprache, (1571-1630)
„DIE WELT DER NATUR,
DIE WELT DES MENSCHEN, DIE
GOTTES WELT: ALLE
SIE PASSEN."
jedoch unter Beibehaltung der technischen Konsistenz des Themas.
Von den drei Hauptgruppen der Kreationisten (siehe Einleitung)
Lediglich der Vorschlag zur besonderen Schöpfung wird genauer behandelt
Aufgrund der verfügbaren Zeit und des verfügbaren Platzes sollten Sie dieses Buch nicht berücksichtigen. Nur im
In Kapitel 1 wurde eine philosophisch-theologische Annäherung an das Thema vorgenommen
der Herkunft. Dieser Aspekt der Diskussion konnte nicht ignoriert werden
die Existenz einer kreativen Intelligenz hinter dem Wunderbaren
und geniale Mechanismen des Lebens und wissenschaftliche Gesetze (angezeigt durch
unübertroffene Komplexität, die in der gesamten Natur zu finden ist).
eines der zentralen Elemente menschlichen Denkens und Fragens,
Von den Anfängen der Zivilisation bis heute.
xi
E S C L A R E C. I M E N T O S
1. Die in diesem Buch verwendete Datumsnotation folgt dem BC-System. (vor Christus) und n. Chr. (nach Christus) oder n. Chr. (Armo Domini). Das B.C.E. {before common era – before the common era) und C.E. (common era – it was common) wurde nicht verwendet, da der Autor versucht hat, eine einfache Terminologie beizubehalten, die den Lesern allgemein bekannt ist.
2. Im gesamten Buch werden wir den Begriff „natürliche Prozesse“ mehrmals verwenden. Es ist wichtig zu verstehen, dass natürliche Prozesse Prozesse sind, die direkt in der Natur beobachtet und durch eine geeignete wissenschaftliche Formulierung beschrieben werden. Manche Begriffe werden aus wissenschaftlicher Sicht mit natürlichen Prozessen verwechselt, aber das ist nicht der Fall. Solche Begriffe repräsentieren Konzepte und keine direkt beobachteten Phänomene; und sie beruhen eher auf Interpretationen als auf strengen wissenschaftlichen Formulierungen. Einige Beispiele für natürliche Prozesse sind Zellteilung und Gezeiten. Evolution ist kein natürlicher Prozess, da sie eher durch Schlussfolgerungen als durch direkte Beobachtung behandelt wird.
3. In diesem Buch werden für Theorien folgende Abkürzungen verwendet:
TE: EvolutionstheorieTEE: Spezielle EvolutionstheorieTGE: Allgemeine EvolutionstheorieTC: Schöpfungstheorie oder kreationistische TheorieTCE: Spezielle SchöpfungstheorieTDI: Intelligente DesigntheorieCR: Religiöser KreationismusCB: Biblischer Kreationismus
Eine Definition der einzelnen Begriffe finden Sie im Glossar.
EINFÜHRUNG U Ç Ã Oxii
Dieses Buch wurde mit dem Ziel geschrieben, eine kurze, klare und einfache Einführung in die Theorie der besonderen Schöpfung, allgemein bekannt als Kreationismus, zu bieten. Es herrscht einige Verwirrung über die Bedeutung der in der Herkunftsforschung verwendeten Begriffe. Daher sind für ein besseres Verständnis dieser Begriffe einige grundlegende Definitionen notwendig. Ausführlichere Definitionen finden Sie im Glossar.
Naturalismus: materialistische Kosmovision, die besagt, dass die Natur und die natürlichen Prozesse allem Existierenden entsprechen, wobei alles als nichtexistent und unbekannt betrachtet wird, was sich von Natur aus von einem Naturphänomen unterscheiden kann.
Evolution: (biologische) naturalistische Theorie, die besagt, dass Veränderungen in den erblichen Merkmalen einer Population über lange Zeiträume hinweg über aufeinanderfolgende Generationen hinweg für die Entstehung neuer Arten verantwortlich gewesen wären.
Darwinismus: Evolutionstheorie, die im 19. Jahrhundert von Charles Darwin (und Alfred Russel Wallace) entwickelt wurde und die natürliche Auslese als Hauptursache für die Erklärung der Evolution vorschlägt. Das 1859 von Darwin veröffentlichte Buch „The Origin of Species“ machte die Theorie populär.
Natürliche Selektion: ist definiert als der Prozess, durch den Organismen mit günstigen Eigenschaften eher überleben und sich vermehren.
Neodarwinismus: Evolutionstheorie, die die von Darwin vorgeschlagene Theorie der natürlichen Selektion mit der von Gregor Mendel vorgeschlagenen Vererbungstheorie kombiniert. Auch als moderne synthetische Theorie bekannt.
Theistischer Evolutionismus: Evolutionstheorie, die auf verschiedenen Formen der Selektion basiert, einschließlich natürlicher, sexueller und anderer Selektion.
Kreationismus: Kosmovision, die besagt, dass der Ursprung des Universums und des Lebens das Ergebnis eines absichtlichen kreativen Aktes ist.
Wissenschaftlicher Kreationismus: geht davon aus, dass die in der Natur vorkommende Komplexität das Ergebnis eines absichtlichen kreativen Aktes ist.
Religiöser Kreationismus: Religiöse Position, die im Glauben annimmt, dass bestimmte Schriften einer bestimmten Religion über den Ursprung des Lebens und des Universums wahr sind. Diese Formen des Kreationismus werden oft mit wissenschaftlichen Vorschlägen verwechselt.
Intelligentes Design: stellt fest, dass empirisch nachweisbare intelligente Ursachen notwendig sind, um die informationsreichen biologischen Strukturen und die Komplexität der Natur zu erklären.
Moderne synthetische Theorie: (auch bekannt als iModern Evolutionary Synthesis) naturalistische Theorie, die die Vorschläge des Darwinismus, des Neodarwinismus, der von Gregor Mendel vorgeschlagenen biologischen Vererbung und der Populationsgenetik vereint.
Theorie des unterbrochenen Gleichgewichts: Theorie, dass Artbildung in kleinen, getrennten Populationen stattfindet.
xiii
geografisch von anderen Populationen ihrer Art, wo die Evolution in diesen kleinen Gruppen schnell stattgefunden hätte.
Jerry B. Marion und William F. Hornyak, bekannte Physiker in den Vereinigten Staaten und Autoren mehrerer Universitätsbücher, definieren eine wichtige Grundlage für eine kohärente und konsistente Untersuchung der Welt um uns herum wie folgt: „Um das natürliche Universum zu beschreiben Wir verwenden Konzepte, Theorien, Modelle und Gesetze. Im Allgemeinen versucht eine Theorie zu erklären, warum sich die Natur auf eine bestimmte Weise verhält …“1
Es wird somit beobachtet, dass jede Theorie tatsächlich ein „Vorschlag“ zur Erklärung eines Phänomens ist. Es wird geschaffen, um Beziehungen zwischen beobachtbaren Fakten und möglichen Beweisen herzustellen. Im Allgemeinen beruht es auf einem interpretativen Charakter der Beweise. Dieses Verständnis ist für die Erforschung der Ursprünge von grundlegender Bedeutung.
Wenn wir den Kreationismus studieren, werden wir feststellen, dass einige kreationistische Vorschläge, die das Universum und das Leben auf dem Planeten Erde als neu (nur Tausende und nicht Milliarden von Jahren) darstellen, von vielen als Versuche angesehen werden, die Richtigkeit heiliger Texte wie zu beweisen die Bibel. Daher wird in vielen Kreisen angenommen, dass der Kreationismus nichts anderes als eine religiöse Lehre sei.
Wir werden auch sehen, dass die Theorie des intelligenten Designs, wie sie in der portugiesischen Sprache genannt wird, direkt und indirekt in den meisten bekannten kreationistischen Positionen verankert ist. Es ist kein Synonym für Kreationismus, da sein Schwerpunkt auf der Suche nach Zeichen der Intelligenz in der Struktur des Lebens und des Universums liegt und nicht auf den Ursachen, die diese Zeichen hervorgebracht hätten. Die Existenz eines Schöpfers, wer er wäre und welche Ziele er bei der Schöpfung verfolgt, ist nicht Teil der Fragen der Intelligent Design Theory. Viele glauben immer noch, dass die Intelligent-Design-Theorie eine verschleierte Form eines religiösen Vorschlags ist.
Es ist voreingenommen und falsch, sowohl die kreationistische Theorie als auch die Intelligent-Design-Theorie mit religiösen Vorschlägen gleichzusetzen. Arzt Michael Denton, ein Molekularbiologe, macht in Bezug auf intelligentes Design und Religion Folgendes deutlich: „Design-Schlussfolgerung ist vielmehr eine reine a-posteriori-Induktion, die auf einer schonungslos konsequenten Anwendung von Logik und Analogie basiert.“ Die Schlussfolgerung mag religiöse Implikationen haben, aber sie hängt nicht von religiösen Voraussetzungen ab.“2 Andererseits glauben viele fälschlicherweise, dass die Evolutionstheorie bereits bewiesen sei, und versuchen sogar, sie zu einem wissenschaftlichen Gesetz zu erheben.
Es ist wichtig klarzustellen, dass sowohl der Eindruck, dass die Kreationismustheorie eine Religion sei, als auch die Behauptung, dass die Evolutionstheorie bereits bewiesen sei, falsche und fehlerhafte Wahrnehmungen sind. Daher sind die Vorschläge des Kreationismus und des Naturalismus zu den Ursprüngen wie eine Reise zurück in die Vergangenheit und bieten mögliche Erklärungen für den Ursprung des Universums und des Lebens. Doch sowohl das eine als auch das andere bieten lediglich unterschiedliche Modelle hinsichtlich der Herkunft an. Es sind zwei Weltanschauungen, die auf wissenschaftlichen Interpretationen basieren und darauf abzielen, Antworten auf die großen Fragen unserer Existenz zu finden. Hier ist der Punkt
1 J. B. Marion und W. F. Hornyak, Physics for Science and Engineering, CBS College Publishing, Philadelphia, 1982, S. 1.2 Michael Denton, Evclution, ATheory in Crisis, Bethesda, MD, Adler und Aoler, 1986, S. 341.
von zentraler Bedeutung für die gesamte Diskussion über das Thema der Ursprünge, da in dieser Suche die Voraussetzungen, Argumente und Vermutungen von allem gefunden werden, was bewiesen werden soll.
Im kreationistischen Vorschlag erheben viele Einwände gegen die Existenz eines absichtlichen intelligenten Designs in der Natur und gegen die Existenz einer Intelligenz, die in der Lage ist, eine Welt, wie wir sie kennen, zu erschaffen. Sie glauben, dass solche Vorschläge eine einfache und kindische Formulierung für ein so komplexes Thema darstellen. Man sagt, die kreationistische Erklärung der Ursprünge käme einem Vergleich des Regentanzes mit atmosphärischen Wissenschaftsstudien gleich. Dies ist jedoch nicht der Fall. Betrachten Sie die Frage nach der Relevanz von intelligentem Design.
Wenn wir eine Uhr betrachten, sind wir durch Vernunft und Erfahrung in der Lage, an ihre Existenz zu denken, auch wenn wir nichts über die Prozesse wissen, mit denen die Uhr hergestellt wurde, oder auch wenn wir nicht wissen, wer die Uhr hergestellt hat des Uhrmachers als logische Möglichkeit. Diese Überlegung, dass es den Uhrmacher gibt, kann nicht absurd sein, einfach weil wir einen solchen Uhrmacher vielleicht noch nie gesehen haben oder weil wir keine empirischen Erkenntnisse über seine Existenz haben. Es wäre unlogisch zu glauben, dass ein „blinder Pseudo-Uhrmacher“ (wie zufällige und probabilistische Kräfte und Prozesse, ohne Wissen über Uhren oder auch nur, wie man sie herstellt, ohne Zweck und Objektivität) das Erscheinen der Uhr verursacht hat. Die Existenz der Uhr impliziert auf rationale und direkte Weise die Existenz des Uhrmachers.
Albert Einstein, der die Komplexität und die Gesetze verstand, die das Universum regieren, sagte: „... das Unbegreiflichste am Universum ist, dass es begreifbar ist.“3 Diese Komplexität weist auf einen Ursprung hin, der durch eine willentliche Ursache gekennzeichnet ist, in hohem Maße durch einen Designer intelligent und nicht durch natürliche und spontane Ursachen und Prozesse. Das Gleiche gilt für die bekannten Gesetze, die das Universum regieren.
Wir verstehen daher, dass sowohl die Frage nach der Existenz des Uhrmachers als auch die Frage nach einer Intelligenz bei der Erschaffung des Universums rationale Vorschläge sind, die auf vollkommen plausiblen logischen Überlegungen basieren und durch wissenschaftliche Beweise gestützt werden können. Jeder gegenteilige Vorschlag würde als Einspruch betrachtet, und zwar aus Präferenzgründen und nicht aus Mangel an logischen Argumenten.
Nehmen wir als einfaches Beispiel die Frage nach der Existenz Gottes. Ein Wissenschaftler, der nach unserem bisherigen Kenntnisstand über das beste Labor, die modernste Ausrüstung und Ressourcen sowie die fortschrittlichsten Techniken verfügt, wäre nicht in der Lage, die Existenz Gottes empirisch zu beweisen. Daher konnte er die Existenz Gottes nur durch „Glauben“ akzeptieren. Dies gilt auch für einen anderen Wissenschaftler, der mit denselben Ressourcen und demselben Labor zu beweisen versucht, dass Gott nicht existiert. Auch dieser konnte die Nichtexistenz Gottes nur durch „Glauben“ akzeptieren. Sowohl für den einen als auch für den anderen ist die Frage eine Frage des Glaubens, da beide Vorschläge nicht empirisch beweisbar sind.
Dieses Beispiel ist wichtig. Die Vorstellung, dass nur Wissenschaftler, die nicht bereit sind, intelligentes Design in der Natur oder die Existenz eines überlegenen Wesens zu akzeptieren, unparteiisch Wissenschaft betreiben können, steht im Widerspruch zu den Beweisen in der Geschichte der Wissenschaft, die voller Beispiele großer Wissenschaftler ist, die diese akzeptierten und bekannten Glaube nicht an a
xiv C
3 Banesh Hoffman, Albert Einstein: Creator and Rebel Vicking, New York, 1972, S. 18.
XV
bloßer „kosmischer Uhrmacher“, sondern in einem Gott als Schöpfer aller Dinge. Unter vielen sind die Namen von Johannes Kepler, Isaac Newton, Leonard Euler,
James Prescott Joule und James Clerk Maxwell. Menschen, die nur die Theorien und den Wert der von diesen Männern vorgelegten wissenschaftlichen Arbeit kennen, sich aber der persönlichen Position jedes einzelnen von ihnen in Bezug auf die Existenz eines Schöpfergottes nicht bewusst sind, haben nur eine teilweise Vorstellung davon, wer diese brillanten Köpfe tatsächlich waren, die sie beehrten Wissenschaft und die Welt mit ihren Theorien, Gesetzen und Formulierungen. Sie sind weit davon entfernt, den tiefgreifenden Einfluss des Glaubens dieser Männer und Frauen zu verstehen, der sich in der Motivation manifestiert, die sie zur Forschung veranlasste.
Beispielsweise schrieb James R. Joule, der als einer der Väter der Thermodynamik gilt, in Bezug auf den Schöpfer: „Nachdem man den Willen Gottes erkannt und ihm gehorcht hat, muss der nächste Schritt darin bestehen, etwas über seine Eigenschaften Weisheit, Macht und Kraft zu wissen.“ . Güte, bewiesen durch seine persönlichen Werke.“4
Eine letzte Überlegung. In Bezug auf die religiösen Implikationen der Wissenschaft sagte Dr. Chandra Wickramasinge, Direktorin des Zentrums für Astrobiologie in Cardiff, Wales, sagte: „Entgegen der weit verbreiteten Meinung, dass sich nur der Kreationismus auf das Übernatürliche stützt, muss sich auch der Evolutionismus stützen, da die Wahrscheinlichkeit, dass Leben durch Zufall entsteht, so gering ist, dass ein … erforderlich ist.“ „Wunder“ der spontanen Zeugung gleichbedeutend mit einem theologischen Argument.“5
Wäre der evolutionäre Naturalismus nicht Gegenstand derselben religiösen Kritik, die sich am Kreationismus richtet, wenn man glaubt, dass es keine überlegene Intelligenz als Hauptursache für die Entstehung des Universums und des Lebens gibt? Ich glaube ohne den geringsten Zweifel, dass dieses Thema der Herkunft immer eine Herausforderung sein wird, sowohl für diejenigen, die es studieren, als auch für diejenigen, die darüber lesen.
Daher besteht für alle, die nur mit dem naturalistischen Vorschlag in Berührung gekommen sind, hier die Herausforderung, den kreationistischen Vorschlag kurz zu kennen und so durch eine umfassendere Begründung (im Kontext bekannter wissenschaftlicher Gesetze und vorhandener Beweise) eine ausgewogenere Bewertung zu erhalten der Vorschläge und Modelle der beiden Theorien.
Ich glaube auch, dass es von großer Bedeutung ist, hier einen alten Text zu erwähnen, der auf einfache und praktische Weise die Haltung beschreibt, die ein Mensch haben sollte, wenn er über Vorschläge nachdenkt, die ihm unbekannt sind:
„Diese aus Beröa waren aber edler als die aus Thessalonich, denn sie nahmen das Wort mit größtem Eifer auf und prüften täglich die Schriften, um zu sehen, ob das so sei.“6
Adauto J. B. LourençoLimeira, 4. September 2007
4 J. G. Crowther, British Scientists of the Nineteenth Century, Routledge & Kegan Paul, London, 1962, S. 138.5 Dr. Norman L. Geisler zitiert nach „Creator in the Classroom – Scopes 2: The 1981 Arkansas Creation/Evolution Trial“, Miedford,
Ml, Mott Media, 1982, p. 151.6 Lukas, Arzt und Historiker des 1. Jahrhunderts n. Chr., im 1. Buch der Apostelgeschichte der Heiligen Bibel, Kapitel 17, Vers 11.
KAPITEL 1
Ein Ursprung des m
of Theo r i es: Wie hat alles angefangen?
"O C O R A Ç Ã O D O E N T E N D I D O A D Q U I R E O C O N H E C I ME NT O. 1! O O U V I D O
DER Klugen Suche nach Wissen.
„Ap l i c a o t e u c o r a ç ã o a o en s i n o ,
e o s t e u s o u v i d o s à s p a l a v r a s d e c o n h e c i m e n t o . "
R e i S a l o m ã o, c i t a d o n o l i v r o d e P r o v é r b i o s . 18:15 und 23:12
18
Der Ursprung der Weltanschauungen Sowohl der evolutionäre Naturalismus als auch der Kreationismus sind nicht kosmologisch.
moderne Visionen, kürzlich vorgeschlagen. Seine Ursprünge lassen sich bis in die Zeit der griechischen Philosophen zurückverfolgen, also vor mindestens etwa 2600 Jahren.
Während die Diskussion über die Ursprünge viel Mythologie beinhaltete, beschäftigten sich einige griechische Philosophen systematisch und nach damaligen Maßstäben sogar wissenschaftlich mit dem Thema. Aus diesen Diskussionen gingen zwei unterschiedliche Gruppen hervor, die sowohl die Form als auch die Grundstruktur der aktuellen Weltanschauungen über die Herkunft vorgeben.
Eine Gruppe vertrat die These einer möglichen spontanen Generation, bei der sowohl das Universum als auch das Leben durch sogenannte natürliche Prozesse entstanden wären. Eine andere Gruppe vertrat die Auffassung, dass das Universum nach einem rationalen Plan erschaffen wurde. Die Argumentation, die die beiden Positionen motivierte, ist bis zu einem gewissen Grad dieselben, die auch heute noch verwendet werden. Offensichtlich haben uns die wissenschaftlichen Fortschritte der letzten dreihundert Jahre deutlicher vor Augen geführt, dass viele Vorschläge zwar logisch waren, aber keine solide, nachhaltige Grundlage hatten.
ZURÜCK IN DIE VERGANGENHEIT Eine Retrospektive der Vorschläge, die im antiken Griechenland gefunden wurden
Hilfe beim Verständnis der beiden aktuellen Positionen zur Herkunft. Da die Anzahl der Argumente und die Komplexität, die erforderlich sind, um eine logische Begründung für einen spontanen Ursprung zu finden, viel größer und oft subjektiv sind, müssen wir hier die wichtigsten Vorschläge zitieren, die von Verteidigern der naturalistischen Position im antiken Griechenland gemacht wurden.
Thales von Milet (621-543 v. Chr.) war einer der ersten in der Geschichte, der die These aufstellte, dass sich die Welt aus Wasser entwickelt habe. Diese Entwicklung wäre durch natürliche Prozesse erfolgt.
Anaximander von Milet (610-547 v. Chr.) war einer der Schüler von Thales. Ihm zufolge würde alles, was im Universum existiert, aus vier Grundsubstanzen entstehen: Wasser, Luft, Erde und Feuer; Diese Substanzen würden von einem Element stammen, das er Apeiron nannte. Empedokles von Agrigent (492–430 v. Chr.) vermutete, dass Pflanzen und Tiere nicht gleichzeitig entstanden seien. Er war es auch, der auch einen der bekanntesten Vorschläge innerhalb der evolutionistischen Position vorbrachte, das „Überleben der Besten“. Leukipp (5. Jahrhundert v. Chr.) und Demokrit (460–370 v. Chr.) waren die Väter der atomistischen Philosophie und des Atomismus und schlugen vor, dass die kosmische Realität durch eine unendliche Leere und eine unendliche Anzahl von Atomen dargestellt wird. Obwohl er eine naturalistische Position vertrat, glaubte Leukipp, dass „nichts durch Zufall geschieht:
.) 19
Es gibt einen notwendigen Grund für alles“1.0 kreationistisches Modell, da es eine objektivere rationale Grundlage erfordert und
weniger komplex, lässt sich anhand der Thesen von nur zwei Philosophen zusammenfassen, die unter den vielen sind, die diese Position vertreten haben.
Platon (427-347 v. Chr.) schlug vor, dass das Universum, das von den Gesetzen der Natur regiert wird, hauptsächlich denen, die damals aus der Geometrie bekannt waren, von einem Schöpfer nach einem rationalen Plan erschaffen wurde.
Aristoteles (384-322 v. Chr.) war ein Schüler Platons. Aus den gleichen Gründen wie Platon akzeptierte er auch, dass das Universum erschaffen worden war. Platon war einer der ersten griechischen Philosophen, der die Rundheit der Erde akzeptierte.
Ein Großteil der ursprünglichen kreationistischen Position ging im Mittelalter in der westlichen Welt aufgrund der damals vorherrschenden religiösen Einstellung verloren. Es ist wichtig zu betonen, dass diese religiöse Perspektive nicht authentisch die jüdisch-christliche Position sowohl des Ursprungs aller Dinge als auch einer Wissenschaftsphilosophie widerspiegelte. Es handelte sich um eine spezifische Sichtweise, die nur einem Zweig des sogenannten Christentums zuzuordnen war.
Ende des 15. und Anfang des 16. Jahrhunderts gewann die Infragestellung der alten philosophischen Vorschläge eine experimentelle Perspektive. Die früheren Vorschläge wurden durch Studien und Beobachtungen evaluiert.
Die beiden Positionen, der Naturalist und der Kreationist, standen weiterhin im Mittelpunkt sowohl der Diskussionen als auch der Forschung. Da in den letzten fünf Jahrhunderten wenig über kreationistische Ansichten gesagt wurde, finden Sie in Anhang A eine Liste einiger der führenden Wissenschaftler dieser Zeit.
Unter einigen von ihnen können wir hier die Namen von Francis Bacon, Galileo Galilei, Johannes Kepler, Blaise Pascal, Robert Boyle, Sir Isaac Newton, Carolus Linneaus, Leonhard Euler, William Herschel, James Parkinson, Jedidiah Morse, John Dalton und Michael erwähnen Faraday, Joseph Henry, Richard Ovven, James P. Joule, George Stokes, Gregor Mendel, Louis Pasteur, William Thompson (Lord Kelvin), Bernhard Riemann, James C. Maxwell, John Strutt (Lord Rayleigh), John A. Fleming, Ernest J. Mann, William Ramsay und Wernher von Braun.
Welche wissenschaftlichen Gründe hätten dazu geführt, dass sich so viele wichtige Namen in der Wissenschaft für die kreationistische Position und nicht für den Naturalismus entschieden hätten?
Die Antwort liegt genau in der wissenschaftlichen Forschung. Es ist die größte Ressourcenquelle für die kreationistische Position.
1 H. A. Diels, Die Fragmente der Vorsokratiker, 6. Auflage, rev. von Walther Kranz, Berlin, 1952, unter Berufung auf Fragment 67 B1.
DER URSPRUNG DER THEORIEN Jede Theorie hat ihren Ursprung im menschlichen Geist, im Wunsch zu erklären
was in der Vergangenheit passiert ist oder um vorherzusagen, was in der Zukunft passieren wird. Es ist eng mit Neugier, Wahrnehmung und menschlichem Denken verbunden. Seit der Antike hat der Mensch immer nach den Ursachen bestimmter Dinge gesucht, die mit der Realität seines täglichen Lebens zu tun haben. Aufgrund mangelnder wissenschaftlicher Erkenntnisse erhielten viele von ihnen eine übernatürliche und mystische Erklärung. In diesem Fall handelte es sich lediglich um bloße Spekulationen oder die Formulierung von Ideen ohne oder mit geringer wissenschaftlicher Grundlage.
Heutzutage beschäftigt sich die Wissenschaft mit Daten (beobachteten Phänomenen) und Theorien (Ideen) und nutzt die Methoden der Induktion und Deduktion, um die Abfolge von Ereignissen und ihre Beziehungen zu ermitteln und so die Ursache bestimmter beobachteter Phänomene festzustellen und Vorhersagen zu treffen. Wenn die Wissenschaft das Universum in seiner heutigen Form untersucht, fragt es sich, wie es am Anfang war und was dazu geführt hat, dass es so geworden ist, wie es heute ist.
Diese Ursprungswissenschaft ist als Kosmogonie bekannt (Theorien, die den Ursprung des Universums erklären). Bei dieser Suche nutzt die Wissenschaft ihre zahlreichen Forschungsgebiete, um in ihnen Beweise zu finden, die als Grundlage für die zu entwickelnden Theorien dienen.
Um zu zeigen, worum es bei dieser Suche nach Antworten geht, wollen wir es an einem praktischen Beispiel veranschaulichen. Nehmen wir vier einfache Naturphänomene (dies werden unsere Daten oder Beweise sein) und analysieren wir, wie sie miteinander verbunden sind: Was ist Ursache und was ist Wirkung? Die vier sind:
* Regenwolken ® Blitze • Donner • BlitzeUnsere Beobachtungen zeigen, dass Regenwolken Blitze erzeugen
und Blitz. Blitze erzeugen Donner. Es ist jedoch möglich, in einer Nacht, in der es keine Regenwolken gibt, Blitze am Himmel zu sehen. Andererseits kann man ohne Wolken keine Blitze sehen und ohne Blitze keinen Donner hören.
Indem wir die Fakten in der natürlichen Reihenfolge, in der sie auftreten, in Beziehung setzen, können wir herausfinden, wie diese vier Phänomene miteinander verbunden sind:
Was ist die Ursache und was ist die Wirkung? Wir können auch einige Vorhersagen mit einem gewissen Grad an Genauigkeit treffen, basierend auf einer Theorie darüber, wie diese wirken
hängen zusammen, wie in der folgenden Reihenfolge gezeigt.
M Blitz ■ ? #
Wolkenblitz Donner
A 0 21
THEORIEN MIT GESETZEN PRÜFEN Um beispielsweise eine Theorie über die Häufigkeit von Blitzen zu erstellen und
Um Gewitter während einer bestimmten Art von Sturm zu erzeugen, müssten wir viele Gewitter und Blitze beobachten, um die Bedingungen und die Häufigkeit ihres Auftretens beurteilen zu können. Wir müssten auch einige Gesetze und wissenschaftliche Postulate im Zusammenhang mit dem Phänomen Regen (Thermodynamik, Hydrodynamik, Strömungsmechanik), elektrischen Entladungen (Elektrizität) und Schall (Wellen) studieren und kennen. Nachdem wir das Phänomen und die grundlegenden Gesetze, die es steuern, verstanden haben, können wir eine Theorie erstellen (eine Erklärung, wie dieses Phänomen auftritt, wann es auftritt und warum es auftritt).
Die Wissenschaft braucht Gesetze und Beweise, damit eine Theorie auf dieser Grundlage entwickelt werden kann. Ein wissenschaftliches Konzept ist kein Gesetz. Eine Theorie ist auch kein Gesetz und kann auch nicht als Gesetz oder gar wissenschaftliche Tatsache angesehen werden, bis sie getestet und bewiesen wird.
Um dies zu erreichen, nutzen wir bekannte Gesetze (und andere, die im Laufe des Studiums, der Forschung und der Entwicklung der Theorie bekannt werden können). Es besteht jedoch Bedarf an einem systematischen Bewertungsprozess. Wir können keine Gesetze und Beweise verwenden, die nur die Theorie stützen, ohne andere Gesetze und Beweise zu berücksichtigen, die ihr widersprechen.
Wenn wir uns mit dem Ursprung des Universums, des Lebens und allem, was wir wissen, befassen, müssen wir die Gesetze der Physik, Chemie, Biologie, Mathematik und anderer nutzen, die uns die notwendige Grundlage für die Entwicklung und Prüfung solcher Theorien geben. Ohne die Anwendung dieser Gesetze wäre jede vorgeschlagene Theorie nur eine mythologische Erzählung oder sogar ein religiöses Dogma, ohne wissenschaftliche Grundlagen, anhand derer sie bewertet und sogar bewiesen werden könnte.
DIE FÜNF ELEMENTE Bei der Formulierung eines Vorschlags gibt es fünf Grundelemente
wissenschaftlich. Nach der Beobachtung und dem Sammeln von Informationen über ein Naturphänomen sind diese fünf Elemente unverzichtbar. Durch sie entsteht jeder wissenschaftliche Vorschlag. Sind sie:
• der Wissenschaftler (derjenige, der die Beobachtungen verstehen und erklären möchte) • die Argumentation (das Denken, mit dem die Beobachtungen in Beziehung gesetzt werden) • die Beweise (die Anzahl der Beobachtungen) • die Theorie (der Vorschlag zur Erklärung der Beobachtungen) • die Wahrscheinlichkeit (die Möglichkeit, dass der Vorschlag wahr ist) Diese fünf Elemente sind von großem Wert, wenn die Informationen darüber
22
uí f j ) = M 2 —hl'■ c 3 e t f l k T . j
Plancksches Gesetz für Schwarzkörperstrahlung
Cie:
echter Wissenschaftler
Phänomene umfassend und genau sind, um eine Gruppe von Daten zu bilden, die das untersuchte Phänomen getreu wiedergeben. Andernfalls kann man den Fehler machen, eine Theorie zu entwickeln, die nur einige Aspekte des Phänomens erklärt. Eine solche Theorie wäre unvollständig und vielleicht sogar falsch. Es würde jedoch in einigen Punkten eine gewisse Korrelation mit den untersuchten Naturphänomenen aufweisen.
Ein Beispiel für diese Tatsache findet sich in der Untersuchung der Schwarzkörperstrahlung im sogenannten Rayleigh-Jeans-Gesetz. Der mathematische Ausdruck dieses „Gesetzes“ sollte die von einem schwarzen Körper abgestrahlte Energie beschreiben. Allerdings lieferte es nur Werte, die denen entsprechen, die für Wellen großer Länge beobachtet wurden. Aus ultravioletter Strahlung stimmten die durch das Rayleigh-Jeans-Gesetz ermittelten Werte nicht mit den experimentellen Ergebnissen überein.
Max Karl Planck war derjenige, der im Jahr 1900 das Problem der Schwarzkörperstrahlung löste. Seine Gleichung beschreibt das Phänomen vollständig.
DER WISSENSCHAFTLER Das erste zu berücksichtigende Element ist der Wissenschaftler. Es gibt einen Nachteil
Überzeugung, dass Männer und Frauen, die diese Position innehaben, perfekt sind und dass ihre Interpretationen, Schlussfolgerungen und Vorschläge immer wahr und über jedem Gegenargument erhaben sind. Im Gegenteil, der Wissenschaftler ist ein normaler Mensch, der wie jeder andere Mensch Fehler machen kann.
Als Menschen bringen Wissenschaftler ihre persönlichen Ambitionen, Vorurteile und Arbeitsmethoden in die Wissenschaft ein, ob gut oder schlecht. Dies gehört zum Wesen des Menschseins. Es gibt also einen großen Unterschied zwischen dem echten Wissenschaftler und dem idealen Wissenschaftler, aber dieser Unterschied wird normalerweise nicht klar verstanden.
Lange Zeit galt die Erde als Zentrum des Sonnensystems. Lange Zeit glaubte man, dass die Blutabnahme bei Menschen Heilung bewirken würde. Für viel
A 0 ' i G M 23
Damals galt der Quastenflosser als fehlendes und ausgestorbenes Glied. Heute akzeptiert die Wissenschaft diese Aussagen nicht mehr als wahr. Schauen Sie jedoch einfach in einigen nicht sehr alten Büchern nach, um sie zu finden. Warum wurde ihnen beigebracht? Weil sie als richtig angesehen wurden, obwohl wir heute wissen, dass sie völlig falsch lagen.
Es ist möglich, dass Wissenschaftler mit bestimmten Theorien falsch liegen und lange Zeit im Irrtum bleiben. Es ist sogar möglich, dass eine große Mehrheit der Wissenschaftler an eine falsche Theorie glaubt. Die Geschichte ist voller Beispiele, ebenso wie die Regale mit veralteten wissenschaftlichen Büchern, die noch immer in Bibliotheken vorhanden sind und ein klarer Beweis für diese Tatsache sind. Die falsche Interpretation der Ursache eines Naturphänomens kann zu einer falschen Schlussfolgerung führen, die wiederum zu einer falschen Theorie führen kann.
DIE BEGRÜNDUNG Das zweite zu berücksichtigende Element ist die Begründung. Auch hier
eine Fehleinschätzung, die Beachtung verdient: dass alle logischen Überlegungen richtig sind.
Betrachten Sie zur Veranschaulichung die folgende Argumentationsform des Paradoxons (hier in einer aktuellen Form dargestellt), das von Zeno, einem griechischen Philosophen, der um 450 v. Chr. lebte, geschaffen wurde: „Es ist möglich, logisch zu beweisen, dass Sie niemals gehen können.“ Ihr Haus und Ihr Ziel erreichen. Job". Sie werden sagen, das ist lächerlich. Mal sehen.
Stellen Sie sich vor, Ihr Zuhause befindet sich an Punkt A im nebenstehenden Diagramm und Ihr Arbeitsplatz an Punkt Z. Um also Ihr Zuhause zu verlassen und zu Ihrem Arbeitsplatz zu gelangen, müssen Sie von A bis Z gehen. Aber von A bis Z , müssen Sie durch Punkt B gehen, der genau auf halber Strecke liegt. Wenn Sie also an Punkt B ankommen, haben Sie die Hälfte des Weges hinter sich und müssen nur noch in die andere Richtung gehen.
Zenos Paradoxon
24
In der Mathematik gibt es ein spezielles Forschungsgebiet zu den sogenannten unendlichen Reihen (unendlichen Folgen), die üblicherweise durch den Ausdruck dargestellt werden:
3. + 3 + 3 +... + 3 +...: 2 3 n
Das Ziel bei der Untersuchung dieser Reihen besteht genau darin, zu wissen, ob sie konvergieren oder divergieren. Wenn ich zum Beispiel die Zahlen addiere:
0,6 + 0,06 + 0,006 + 0,0006 +...
bis zu unendlich vielen Nullen zwischen dem Dezimalpunkt und der Zahl sechs...
...das Ergebnis eine reelle Zahl sein wird, die berechnet werden kann?
Die Antwort ist ja!
- = 0 ,6666666666666 ...3
noch die Hälfte. Um jedoch von B nach Z zu gelangen, müssen Sie über Punkt C gehen, der auf halber Strecke zwischen B und Z liegt. Wenn Sie Punkt C erreichen, haben Sie die Hälfte der fehlenden Hälfte abgedeckt. Es liegt noch die andere Hälfte des Weges zwischen B und Z vor uns. Aber um von C nach Z zu gelangen, müssen Sie über Punkt D gehen, der auf halbem Weg zwischen C und Z liegt. Lassen Sie uns hier aufhören, denn die Begründung ist folgende: Um eine beliebige Strecke zurückzulegen, müssen Sie eine Strecke zurücklegen unendlich viele Hälften, um Ihr endgültiges Ziel zu erreichen. Es wird immer einen halben Weg vor uns geben, egal wie klein er auch sein mag. Daher werden Sie in unserem Beispiel nie den Punkt Z erreichen, der Ihr endgültiges Ziel ist.
Aber Sie fragen: „Wie komme ich zu meinem Job?“ Beachten Sie, dass die dargelegte Argumentation sinnvoll und logisch ist. Er führt uns jedoch zu einem Ende, das völlig im Widerspruch zu unserer Alltagserfahrung steht. Dies geschieht, weil die Argumentation zwar logisch, aber falsch ist.
Betrachten wir dieses Problem aus einem anderen Blickwinkel. Mathematisch können wir diese Faktenfolge in Form einer Summe von Termen mit der Bezeichnung Sn schreiben:
S = 1 + 1 + 1 + 1 + 1 + 1n 2 4 8 16 2n~1 2n ’
Dabei ist 1/2 die Entfernung von A nach B, 1/4 von B nach C, 1/8 von C nach D usw., wobei Sn die zurückgelegte Gesamtstrecke ist.
Dies ist eine unendliche Reihe, die wir konvergent nennen, weil das Endergebnis eine Zahl ist, die Zahl 1. Der mathematische Beweis befindet sich in Anhang B. Daher können wir mathematisch beweisen, dass die Argumentation zwar logisch und sinnvoll, aber falsch ist , denn endlich wird die komplette Distanz zurückgelegt. Wenn die Argumentation dieses Beispiels richtig wäre, würden Sie dieses Buch nie lesen, weil es Sie nie erreicht hätte! Das Beispiel zeigt uns, wie logisches Denken uns zu einer völlig falschen Schlussfolgerung oder Vorhersage führen kann.
Die gleiche Situation findet sich bei der Entwicklung einer Theorie, die sich mit dem Ursprung aller Dinge befasst. Wenn wir einige isolierte Elemente in eine logische Reihenfolge bringen, können wir daraus schließen, dass sie alle miteinander verbunden sind. Diese Schlussfolgerung würde uns andererseits zu einer Reihe von Vorhersagen führen, die wissenschaftlich überprüft werden könnten. Würde die Schlussfolgerung jedoch dieselbe bleiben, wenn wir alle verfügbaren Elemente berücksichtigen würden? Könnte es eine andere bessere und kohärentere Erklärung geben? Könnte es sogar im Widerspruch zur ersten Erklärung stehen? Wir werden diese Probleme in den nächsten Kapiteln auf praktische Weise angehen.
Daher ist die Logik der Interpretation einer Gruppe von Beweisen kein entscheidender Faktor für die Validierung einer Theorie.
25
DIE MENGE DER BEWEISE Die Menge an Beweisen, um eine zu entwickeln oder sogar zu beweisen
Die Theorie ist ein weiterer sehr relevanter Punkt. Schauen wir uns diesen Aspekt anhand eines einfachen Beispiels genauer an: dem Prozess, die Quadratwurzel einer Zahl zu finden.
Nehmen wir an, unsere Suche beschränkt sich darauf, einen Prozess zu finden, der beschreibt, wie man die Quadratwurzel einer vierstelligen Zahl findet, also Zahlen zwischen 1000 und 9999.
Dieses Beispiel zeigt, wie eine geringe Menge an zunächst positiven Beweisen zu einer endgültigen Schlussfolgerung führen kann, die völlig falsch ist. Theorien und die unterstützenden Beweise stoßen oft auf dasselbe Problem. Mal sehen
Schauen wir uns die Quadratwurzel einiger Zahlen an:
2025, 3025 und 9801.
Beachten Sie eine sehr interessante Tatsache in der Struktur jeder dieser dargestellten Zahlen und die Beziehung, die zwischen dieser Struktur und der Quadratwurzel jeder einzelnen Zahl besteht.
Nehmen wir die Zahl 2025 als erstes Beispiel (Beweis) für unsere Studie. Die Quadratwurzel von 2025 ist 45. 45 ist jedoch auch das Ergebnis der Addition der ersten beiden Ziffern von 2025, in diesem Fall 20, mit den letzten beiden Ziffern von 2025, 25.
\r2Õ25 = 45 20 + 25 = 45
Das ist etwas Faszinierendes! Die Summe der beiden Hälften ergibt den Quadratwurzelwert! Die Übernahme eines Prozesses anhand eines einzigen Beispiels1) wäre jedoch etwas, das von der wissenschaftlichen Gemeinschaft nicht akzeptiert werden kann.
Setzen wir unsere Forschung fort. Nehmen wir nun die Zahl 3025. Die Quadratwurzel aus 3025 ist 55. In diesem Fall
Wir können auch überprüfen, dass 55 die Summe der ersten beiden Ziffern der Zahl 3025, in diesem Fall 30, und der letzten beiden Ziffern 25 ist.
V3Õ25 = 55 -> 30 + 25 = 55
Da es sich bei diesen ersten beiden Beispielen um Vielfache von 5 handelt, nehmen wir für unsere nächste Analyse die Zahl 9801, die kein Vielfaches von 5 ist.
26 T ii o
Die Quadratwurzel von 9801 ist 99. Auch in diesem Fall können wir sehen, dass 99 das Ergebnis der Addition der ersten beiden Ziffern der Zahl 9801, in diesem Fall 98, und der letzten beiden Ziffern 01 ist.
V98ÕT = 99 —> 98 + 01 = 99
Basierend auf diesen drei Beispielen (Beweisen) können wir dann eine Theorie über eine wissenschaftliche Methode zur Berechnung der Quadratwurzel einer beliebigen Zahl mit vier Ziffern entwickeln.
Unsere Theorie hätte die folgende Formulierung:
„Die Quadratwurzel jeder vierstelligen Zahl kann durch Addition der ersten beiden erhalten werden
Ziffern dieser Zahl mit den letzten beiden.“
In der mathematischen Schreibweise würde die Quadratwurzel der Zahl abcd durch die Form ab+cd gegeben sein,
Vabcd = ab + cd.
Jetzt müssen wir die Theorie testen. Nehmen wir noch einige weitere Beispiele (Beweise), um den in der Theorie vorgeschlagenen Prozess zu validieren.
V1024 = 32^10 + 24 = 34 (das &-Zeichen bedeutet unterschiedlich)
V25ÕÕ = 50 * 25 + 00 = 25
V5929 = 77 * 59 + 29 = 88
V4Õ4Õ = 63,56099433 * 40 + 40 = 80
Da die Anzahl der für die Entwicklung unserer Theorie verwendeten Elemente begrenzt ist (Zahlen zwischen 1000 und 9999), können wir die Theorie problemlos mit allen Elementen dieser Gruppe mithilfe eines Computerprogramms testen. Wir werden feststellen, dass nur die drei Zahlen, die wir als Beweis nehmen, 2025, 3025 und 9801, der von uns aufgestellten „Theorie“ entsprechen. Alle anderen tun das nicht (beachten Sie, dass einige ziemlich nah dran waren, wie die Quadratwurzel von 1024).
Sollten Zahlen, die nicht zu unserer Theorie „passen“, verworfen oder in Betracht gezogen werden? Sind sie die Regel oder die Ausnahme?
R. 27
Natürlich sind diese nicht passenden Zahlen die Regel und können nicht als Ausnahme betrachtet werden. In unserem Beispiel wären unsere Beweise nichts anderes als „große Zufälle“, die uns dazu verleiten würden, eine falsche Theorie zu akzeptieren.
DIE THEORIE Eine Theorie ist nichts anderes als eine Hypothese oder eine Vermutung. Als
Wie wir bereits gesagt haben, hängt die Gültigkeit einer Theorie von der Nutzung bekannter wissenschaftlicher Gesetze und ihrer Fähigkeit, Vorhersagen zu treffen, ab. Mit anderen Worten: Es muss über Spekulationen hinausgehen.
Schauen wir uns als Beispiel die folgenden Theorien darüber an, wie ein Schokoladenkuchen auf einem Tisch in einer städtischen Feuerwache erschien. Darin werden wir einige vorab festgelegte Fakten stützen, wie zum Beispiel die Existenz von Elementen zur Herstellung des Kuchens usw., und den Leser als Forscher betrachten.
Theorie 1: Eine Hausfrau und Mutter eines Feuerwehrmanns wusste, wie das geht
machte Schokoladenkuchen und beschloss, einen Kuchen für ihren Sohn zu backen. Nachdem er alle notwendigen Zutaten besorgt hatte, bereitete er den Teig vor und gab jede Zutat in der richtigen Menge und in der richtigen Reihenfolge in einen Behälter. Nach Ablauf der vorgegebenen Zeit wurde der Teig in einer Form zum Backen in den Ofen gebracht.
28
bis der Kuchen fertig ist. Der Qualitätsstandard des Kuchens lag bei der Hausfrau, die wusste, wie man ihn zubereitet. Nach der entsprechenden Zeit wurde der Kuchen aus dem Ofen und der Form genommen, von der Mutter zur Feuerwache gebracht und auf einen Tisch gestellt. Das wäre unsere Theorie Nummer eins.
Foto: Volkswagen Offenlegung
Theorie 2: Ein Supermarkt-LKW, der Waren zur Lieferung transportiert,
überschlug sich in einer Kurve. Als der Lastwagen umkippte, zerbrachen Pakete mit Mehl, Hefe, Zucker, Salz, Schokolade, Eiern, Öldosen usw., die sich auf der Ladefläche befanden. Im Inneren des Lastwagens wurde eine Feldflasche gefunden, die durch den Überschlag in zwei Hälften zerbrach. Einige der zufällig geworfenen Zutaten landeten in der richtigen Menge und in der richtigen Reihenfolge in einer der Kantinenhälften. Aufgrund der Überschlagsbewegung vermischten sich dort die Elemente. Als der Lkw aufhörte zu kippen, fing er Feuer. Durch Hitze werden die Zutaten erhitzt
Innerhalb der Kantinenhälfte begannen sie, sich durch physikalisch-chemische Prozesse in einen Schokoladenkuchen zu verwandeln. Den herbeigerufenen Feuerwehrleuten gelang es, den Brand im Supermarkt-LKW innerhalb angemessener Zeit zu löschen. In den Trümmern fanden sie den in der Hälfte der Kantine geformten Schokoladenkuchen, nahmen ihn und stellten ihn auf einen Tisch, um die große Leistung des Tages zu feiern.
In diesen beiden Beispielen waren Sie (der Forscher) nicht anwesend, um zu sehen, was passiert ist. Sie sehen nur den Kuchen, der auf dem Tisch steht. Mit anderen Worten: Unabhängig von Ihrer Antwort, welche der beiden Theorien das Ereignis erklären kann, ist es eine Tatsache, dass Sie nicht Zeuge des Geschehens waren. Sie haben nur den Kuchen auf dem Tisch, den Sie analysieren können.
Ebenso hat der Wissenschaftler nur die Natur um ihn herum zu analysieren. Und auf der Grundlage seiner Beobachtungen zieht er seine Schlussfolgerungen und Schlussfolgerungen über die Vergangenheit.
Welche der beiden Theorien würde im gegebenen Beispiel überzeugender erklären, wie der Schokoladenkuchen auf den Tisch kam? Welche der beiden Theorien ist Ihrer Meinung nach logischer? Darüber hinaus: Welche der beiden ist Ihrer Meinung nach wissenschaftlich?
Die beiden Theorien sind immer noch Erklärungen dafür, wie der Kuchen auf den Tisch kam. Die beiden Theorien liefern auch ein logisches Argument. Welche Theorie kommt Ihrer Meinung nach Ihrer Erfahrung nach am nächsten an der Realität?
Was die erste Theorie betrifft, besteht kein Grund, allzu viel zu kommentieren.
29
außer der Tatsache, dass wir zugeben, dass es jemanden gibt, der Schokoladenkuchen backen kann (in diesem Fall die Mutter eines der Feuerwehrleute).
Lassen Sie uns den zweiten analysieren. Wenn wir über Wahrscheinlichkeit sprechen, sehen wir, dass die Eintrittswahrscheinlichkeit des Ereignisses sehr gering ist. Liegt diese geringe Wahrscheinlichkeit im Rahmen wissenschaftlicher Standards, dass das Ereignis eingetreten sein könnte? Eine andere Frage ist: Werden wir bei der Analyse des (chemisch geriebenen) Kuchens darin Beweise finden, die diese Theorie stützen würden? Wenn der Kuchen beispielsweise aufgrund der durch die Flammen des brennenden Lastwagens erzeugten Hitze gebacken wurde, sollten bestimmte chemische Elemente, die beim Verbrennen der Lastwagenteile entstehen, auch im Kuchen enthalten sein, es sei denn, er befand sich in einem hermetisch abgeschlossenen System, was der Fall ist steht im Widerspruch zu dem, was die Theorie sagt (innerhalb der Hälfte der kaputten Kantine). Wenn diese Elemente nicht vorliegen, wäre es noch schwieriger zu beweisen, dass der LKW-Unfall die Ursache für das Auftauchen des Kuchens war. Damit der Kuchen im Endzustand eine homogene Konsistenz aufweist, müssen noch weitere wichtige Faktoren berücksichtigt werden. Zum Beispiel: Wie haben sich die Kuchenzutaten in der kaputten Kantine homogen vermischt?
Es ließen sich noch viele weitere Beobachtungen machen. Aber die zitierten dienen dazu, zu zeigen, wie Theorien über dieselbe Beobachtung entwickelt und bewertet werden können.
Wahrscheinlichkeit Nehmen wir noch das Beispiel der beiden Theorien über den Schokoladenkuchen:
Wir würden auf eine Situation stoßen, die eine Analyse der beteiligten Wahrscheinlichkeiten erfordern würde.
Bei der Frage der Wahrscheinlichkeit betrachten wir nur den Aspekt der Kombination der Elemente, aus denen der Schokoladenkuchen besteht.
Nehmen wir zum Vergleich vier verschiedene Buchstaben, sagen wir A, T, G und 0. Wie viele und was wären die möglichen Kombinationen, ohne die Wiederholung eines oder mehrerer davon, wenn wir diese Buchstaben kombinieren?
Dies lässt sich leicht anhand der vier Buchstaben berechnen, die wir zusammenfassen möchten. In der Sprache der Mathematik nehmen wir diese Zahl vier und machen sie „fakultativ“: 4! (eine 4 mit einem Ausrufezeichen). 0 Fakultät bedeutet, dass Sie diese Zahl mit allen Zahlen davor bis zur Zahl 1 multiplizieren sollten, um die Anzahl der möglichen Kombinationen zu erhalten. D.h.:
4! = 4 x 3 x 2 x l =24.
Fakultäten
Multiplizieren Sie die Fakultätszahl mit allen anderen Zahlen, die ihr vorangehen, bis 1, um ihren Wert zu ermitteln.
1! = 1 2! = 2 3! = 6 4! = 24 5!= 120 6! = 720 7! = 5.040 8! = 40.320 9! = 362,880 101 = 3,628,800 111 = 39,916,800 121 = 479,001,600 131 = 6,227,020,800
30
In diesem Beispiel hätten wir 24 Kombinationen. Im Fall des Schokoladenkuchens, der durch das Umkippen des Lastwagens entsteht, kämen noch etwas mehr Elemente in unsere Überlegungen.
Schauen wir uns die 24 Kombinationen im Beispiel an:
TGAO GTAO AOTG OTGATGOA GTOA AOGT OTAGTAOG GOTA AGOT OATGTAGO GOAT AGTO OAGTTOAG GATO ATGO OGTATOGA GAOT ATOG OGAT
Beachten Sie, dass nicht alle Kombinationen ein sinnvolles Wort ergeben. Nur Toga, Gota, Gato und Goat (Englisch) sind Wörter, die Sinn ergeben. Es kann sein, dass ein anderes Wort Teil einer Sprache ist, die wir nicht kennen.
Sollten die vier Buchstaben ein verständliches Wort in der portugiesischen Sprache ergeben, wären es 3 von 24 Kombinationen. Das heißt, eine Wahrscheinlichkeit von nur 1 zu 8.
Für den Schokoladenkuchen werden etwa 12 Zutaten benötigt. Wie viele und welche Möglichkeiten gäbe es, die richtige Menge jeder Zutat zu mischen, damit der Kuchen entsteht, wobei immer ein festes Maß übrig bleibt und die anderen 11 variiert werden? Ein Beispiel finden Sie in der Abbildung unten. Wie viele Möglichkeiten gäbe es, die 12 Buchstaben des Wortes „eroberbar“ zu vermischen?
12! = 1 2 x l l x l 0 x 9 x 8 x 7 x 6 x 5 x 4 x 3 x 2 x l = 479.001.600
Wie groß ist die Wahrscheinlichkeit, dass die zwölf Buchstaben, aus denen das Wort „winnable“ besteht, in einer Runde in der richtigen Reihenfolge auftauchen? Einer von 479.001.600! Betrachten Sie nun den Zeitfaktor bei Möglichkeiten mit den Buchstaben des Wortes „eroberbar“. Legen Sie die Kugeln in den Picker und entnehmen Sie sie einzeln (wie bei einem Unentschieden). Stellen Sie sich vor, dass Sie für alle zwölf entfernten Murmeln, unabhängig von der Reihenfolge (das wäre möglich), eine Minute aufwenden müssen. Gehen Sie davon aus, dass es keine Wiederholungen geben wird. Um alle 479.001.600 Möglichkeiten bei dieser Geschwindigkeit auszuprobieren, würde man etwa 911 Jahre brauchen! Je unwahrscheinlicher das Eintreten eines Ereignisses ist, desto größer muss die damit verbundene Zeit sein, damit es die „Gelegenheit“ hat, einzutreten.
C O N Q U I S T Á V E
31
Fast 480 Millionen Kombinationen!
Sie können sehen, dass ein einzelner Buchstabe, der nicht richtig positioniert ist, die Bildung des eroberbaren Wortes nicht ermöglichen würde. Somit wird die Reihenfolge der Buchstaben zu einem grundlegenden Element.
Im Beispiel des Schokoladenkuchens, der zufällig in dem umgekippten Lastwagen hergestellt wurde, müssten wir nicht nur die Menge berücksichtigen, die in die Kantine gefallen wäre, sondern auch die Wahrscheinlichkeit, dass diese Menge in die Hälfte der Kantine gefallen wäre.
Es ist sehr wichtig, dass eine hohe Wahrscheinlichkeit dafür besteht, dass ein Ereignis eintritt, wie es eine Theorie vorschlägt. Die Wissenschaft selbst hat Grenzen gezogen, um zu sagen, wann etwas unmöglich ist. In der Sprache der Mathematik geht die Wahrscheinlichkeit von etwas, das niemals passieren würde oder passiert wäre, gegen Null.
Beispielsweise berechneten Carl Sagan, Francis Crick und L. M. Muchin die Möglichkeit, dass sich der Mensch entwickelte. Das Ergebnis war 1 in io 2 000 000 000.2 Das heißt, die Möglichkeit ist eine aus einer Zahl mit zwei Milliarden Nullen auf der rechten Seite. Emile Borel hat gezeigt, dass Ereignisse mit einer Wahrscheinlichkeit von 1 zu 1050 einfach nicht eintreten.3
Mathematisch gesehen wäre eine Theorie, die die Ursache eines Ereignisses mit einer sehr geringen Wahrscheinlichkeit in Verbindung bringt, eine Theorie ohne wissenschaftliche Unterstützung. Es wäre nur eine bloße intellektuelle Übung in der Science-Fiction … ein Schokoladenkuchen, der aus dem Umkippen eines Supermarkt-Lastwagens entstanden ist.
Das Verständnis jedes dieser fünf Elemente sollte uns daher helfen, wissenschaftliche Vorschläge im Zusammenhang mit Theorien über den Ursprung des Lebens und des Universums zu bewerten, denn schließlich war keiner von uns anwesend, als alles begann.
2 Carl Sagan, F. H. C. Crick, L. M. Muchin, Communication and Extraterrestrial Intelligence (CíJ\) von Carl Sagan, Hrsg. Cambridge, MA, MIT Press, S. 45-46.
3 Emile Borel, Probabilities and Life, New York, Dover, 1962, Kapitel 1 und 3.
32
DIE GESCHICHTE DER NATUR NEU AUFBAUEN: THEORIEN ÜBER DEN URSPRUNG
Zurück zum Anfang: Wie ist das Universum entstanden? Wie ist das Leben entstanden? Diese Fragen werden von Natura auf unterschiedliche Weise beantwortet
Lismus und Kreationismus. Beide haben Ausgangsvoraussetzungen.
Die Theorie der besonderen Schöpfung schreibt beispielsweise die erste Ursache für die Existenz von zu
Universum und Leben zu einem willensmäßigen Ursprung (einem Schöpfer), wobei die Beweise dafür genommen werden
intelligentes Design, das in der Natur existiert. Die Evolutionstheorie hingegen
lässt einen nicht gewollten Ursprung durch „natürliche“ (spontane und ungerichtete) Prozesse zu.
Innerhalb des von den beiden Theorien dargestellten Kontexts muss die Interpretation der Beweise durch das „Ursache-Wirkung“-System erfolgen, das auf korrekt angewendeten wissenschaftlichen Gesetzen (Physik, Chemie, Biologie, Genetik, Information) basiert.
Die Herausforderungen im Zusammenhang mit diesen beiden Theorien liegen nicht in der Wissenschaft
in seinen philosophischen oder religiösen Implikationen. Für das naturalistische Modell die Herausforderung
besteht darin, anhand von Beweisen und wissenschaftlichen Gesetzen im Rahmen realer Wahrscheinlichkeitswerte zu zeigen, wie zufällige Ursachen dazu geführt hätten, dass natürliche und unpersönliche Kräfte spontan die Prozesse initiierten, die zur Natur und der in ihr bestehenden Ordnung führten, einschließlich der Dauerhaftigkeit ihrer Wirkung Ursachen in den Abläufen der beteiligten Prozesse vom Anfang bis zur Gegenwart.
Für das kreationistische Modell besteht die Herausforderung darin, zu zeigen, dass die Natur in der Komplexität des Universums und des Lebens Beweise für intelligentes Design aufweist und dass diese Komplexität durch sich selbst und die Naturkräfte nicht selbst entstanden wäre. Der Nachweis muss außerdem auf Beweisen, wissenschaftlichen Gesetzen und realen Wahrscheinlichkeitswerten basieren. Auf diese Weise ist das Modell fundiert und kann wissenschaftlich überprüft werden.
33
Vorschlag zur Evolution des Menschen nach der Evolutionstheorie (Literatur aus den 60er Jahren)
Es ist wichtig zu betonen, dass die Tatsache, dass viele Kreationisten Gott als die erste Ursache für die Entstehung des Universums und des Lebens betrachten, den Glauben des Wissenschaftlers deutlich macht und die wissenschaftliche Gültigkeit der Theorie nicht schmälert.
So wie man zugeben konnte, dass es jemanden gab, der wusste, wie man Kuchen backt, wie im Beispiel des Ursprungs des Schokoladenkuchens, ohne dadurch die wissenschaftliche Frage der Analogie zu gefährden, besteht auch die reale Möglichkeit, dass es ein Übernatürliches gibt Ein Wesen, das über unsere Realität hinausgeht und die Welt bereitwillig ins Leben gerufen hätte. Auch dies ist ein plausibler, rationaler Vorschlag, der einer Überlegung wert ist. Jeder Versuch, eine solche Möglichkeit auszuschließen, käme einer Form von Dogmatismus gleich.
ZWEI THEORIEN, ZWEI MODELLE Sowohl der Kreationismus als auch der Naturalismus präsentieren Modelle dafür
Wissenschaft und Geschichte. In der naturalistischen Theorie4 ist alles zufällig. Beim Kreationismus ist alles zielgerichtet. Der Naturalismus stellt ein spontanes Modell dar. Der Kreationismus präsentiert ein entworfenes Modell. Der Naturalismus weist auf den Atheismus hin. Der Kreationismus weist auf den Theismus hin.
Diese beiden Kosmovisionen sind in ihren Grundaussagen wissenschaftlich unvereinbar. Dies bedeutet nicht, dass es zwischen ihnen keine gemeinsamen wissenschaftlichen Elemente gibt. Sie existieren. In einigen Bereichen teilen sie diese Elemente. Ein Beispiel ist der als Mikroevolution bekannte Prozess, den wir in Kapitel 4 sehen werden. Dies ist ein Prozess, der sowohl von Kreationisten als auch von Evolutionisten akzeptiert wird.
Der zentrale Unterschied zwischen den beiden Weltanschauungen liegt in der Interpretation der vom Kreationismus und Naturalismus vorgelegten Beweise.
Da die naturalistischen Theorien bereits allgemein bekannt sind, werden auf der nächsten Seite die Grundvorschläge der Theorie der besonderen Schöpfung in allgemeiner Form dargestellt.
4 Der Begriff „Naturalistische Theorie“ wird in diesem Buch oft in einem populäreren Sinne verwendet und umfasst die Position des Ursprungs des Universums sowie die Entstehung und Kontinuität des Lebens auf dem Planeten Erde, wie wir es heute kennen.
34
Wissenschaftlicher Kreationismus: Seine Vorschläge unterliegen: • wissenschaftlichen Beobachtungen • wissenschaftlichen Tests • wissenschaftlicher Logik • wissenschaftlichen Gesetzen
Die besondere Schöpfungstheorie 1
] Alle geschaffenen Dinge sind das Produkt eines einzigen souveränen Aktes
L von einem allwissenden, allmächtigen und persönlichen Schöpfer, dessen Existenz weder von seiner Schöpfung abhängt noch ein Teil davon ist.
Das Universum wurde aus dem Nichts erschaffen (aus dem Nichts erschaffen), vor kurzem vollständig, komplex, funktionsfähig und scheinbar alt.
O Alle Lebensformen wurden am Anfang vollständig, komplex, • ) mit grundlegender Vielfalt, begrenzter Anpassungsfähigkeit usw. geschaffen
gleichzeitig.
L Der Planet Erde hat im Laufe seines Bestehens eine 4-jährige globale Katastrophe (Katastrophismus) erlebt, durch die viele geologische Aspekte wissenschaftlich erklärt werden können, wie zum Beispiel die Bildung von Kontinenten, der ozeanische Rücken, die Stratigraphie, die schnelle Bildung von Fossilien und deren Positionierung in die stratigraphischen Schichten.
1 Es gibt substanzielle Beweise in der Biosphäre, über der Biosphäre und unter der Biosphäre, die die ersten vier Thesen der Theorie stützen
Besondere Schöpfung.
35
Diese fünf Hauptvorschläge bilden eine grundlegende Zusammenfassung der Besonderen Schöpfungstheorie. Wie wir in den anderen Kapiteln sehen werden, ist diese Theorie in allen Wissens- und Forschungsbereichen präsent und bietet relevante wissenschaftliche Lösungen für die Frage nach der Herkunft.
Wie bereits in der Einleitung erwähnt, sind die Unterschiede sowohl zwischen Kreationismus und Naturalismus als auch innerhalb der kreationistischen Position selbst darauf zurückzuführen, dass nicht alle vergangenen Ereignisse empirisch nachvollziehbar sind. Es müssen unterschiedliche Annahmen getroffen werden.
DER RELEVANTE URSPRUNG DER KOMPLEXITÄT Noch bevor wir mit unserer Studie beginnen, hier einige Überlegungen
wichtige Gründe. Die Komplexität, die wir um uns herum vorfinden, ist nicht offensichtlich, aber
real, sei es in der Natur oder in menschlichen Erfindungen. Der einfache Flug eines Vogels impliziert eine enorme Komplexität an Aktivitäten und Ressourcen, die der Vogel zum Fliegen benötigt, wie etwa die Aerodynamik der Struktur seiner Flügel und die Form und Struktur seines eigenen Körpers sowie die in seinen Knochen verwendeten Materialien , Muskeln und Federn, in der Physik seines Antriebssystems, Navigation, Wartung, Landung und vielem mehr. Was wäre der Ursprung eines solchen Designs und einer solchen Komplexität?
Wäre es unlogisch, an die Existenz einer Intelligenz zu denken, die eine solche Komplexität hervorgebracht hätte? Wäre es irrational zu schlussfolgern, dass eine solche Komplexität das Ergebnis dieser Intelligenz ist? Wäre es unwissenschaftlich, eine absichtliche Schöpfung zu akzeptieren?
36 Lebenslauf S F.
DIE RELEVANZ IN GOTTES BERÜCKSICHTIGUNGDer bekannte irische Schriftsteller C.S. Lewis, im Buch God in the Dock
(Gott auf der Anklagebank) sagt Folgendes: „Wenn das Sonnensystem durch eine zufällige Kollision entstanden ist, dann war die Entstehung organischen Lebens auf diesem Planeten ebenfalls zufällig, und die gesamte Entwicklung des Menschen war ebenfalls zufällig.“ Wenn dies der Fall ist, dann sind alle unsere gegenwärtigen Gedanken bloße Zufälle – Zufälle, die durch die Bewegung von Atomen entstehen. Und das gilt für die Gedanken von Materialisten und Astronomen ebenso wie für alle anderen. Aber wenn Ihre Gedanken – das heißt die des Materialisten und des Astronomen – lediglich Zufallsprodukte sind, warum sollten wir dann glauben, dass sie wahr sind? Ich sehe keinen Grund zu der Annahme, dass ein Unfall die richtige Erklärung für alle anderen Unfälle liefern kann.“5 Laut C.S. Lewis, alle in Betracht gezogenen Vorschläge müssen vorgelegt werden
Erschaffung des Menschen bis zu den letzten Konsequenzen. Diese Überlegung hängt mit Micheleiangeio Buonarotti Teologia (Gotteslehre) zusammen, einem Bereich, der auch heute noch Ärzte hervorbringt
Diplome, die in der Gesellschaft, in der wir leben, anerkannt sind. Die Betrachtung der Existenz eines höheren Wesens ist nicht nur eine religiöse, sondern auch eine philosophische Frage und für die Wissenschaft (innerhalb ihrer Grenzen) relevant.
Die kategorische Bestätigung der Existenz Gottes in der Theologie kann auch durch die Philosophie mit fünf logischen Argumenten abgeschlossen werden, die von Dr. John MacArthur6, über die Relevanz der Existenz Gottes.1. Teleologisches Argument – Alles, was in sich vollständig und vollkommen ist
es ist ein Beweis für einen Schöpfer (das Universum ist daher ein Beweis dafür, dass es eine höchste Intelligenz gibt, die es erschaffen hat).
2. Ästhetisches Argument – Weil es Schönheit und Wahrheit gibt, muss es irgendwo einen Maßstab geben, auf dem Schönheit und Wahrheit basieren.
3. Willensargument – Aufgrund der Tatsache, dass Menschen mit einer Vielzahl von Möglichkeiten konfrontiert werden und Entscheidungen von ihrem eigenen Willen geleitet werden, muss es irgendwo einen unendlichen Willen geben, wobei das Universum der Ausdruck dieses Willens ist.
4. Moralisches Argument – Allein die Tatsache, richtig und falsch zu wissen, legt die Notwendigkeit eines absoluten Standards nahe. Wenn etwas richtig und etwas anderes falsch ist, liegt das daran, dass es jemanden gibt, der diese Entscheidung getroffen hat.
5. Kosmologisches Argument – Dies ist das Ursache-Wirkungs-Argument. Daraus schließen wir, dass jemand das Universum erschaffen haben muss, denn jede Wirkung hat eine spezifische und erste Ursache (siehe Seite 38).
5 C.5. Lewis, God in the Dock, Essays on Theology and Ethics, William B. Eerdmans Publishing Company, 1970, S. 52-53.
6 John MacArthur Jr., The Ultimate Priority on Worship, Moody Press, 1983, S. 37-39.
EINIGE SCHLUSSPUNKTE Mythologie kann nicht als Wissenschaft behandelt werden. wenn wir es versuchen
Bei Theorien beschäftigen wir uns mit Ursache und Wirkung, mit konkreten Beweisen, die überprüft und analysiert werden können.
Die Besondere Schöpfungstheorie ist keine Mythologie und auch keine alternative Form der Konkurrenz zur Evolutionstheorie. Wie wir bereits erwähnt haben, wurde die Position des wissenschaftlichen Kreationismus von vielen Wissenschaftlern in Vergangenheit und Gegenwart vertreten. Diese Position ist weder veraltet noch irrelevant.
Das größte Vorurteil gegenüber der kreationistischen Theorie rührt von der so stark geförderten Trennung zwischen Wissenschaft und Glauben her. Für viele lassen sich diese Elemente im Leben des modernen Wissenschaftlers nicht konsequent vereinen. Dies war jedoch keine vorherrschende Tatsache der Vergangenheit. Ganz im Gegenteil: Wissenschaft und Glaube waren integrale Bestandteile des Lebens der größten Wissenschaftler, die die Welt je gekannt hat. Diesen großen Männern, die die Türen zu so vielen Bereichen des menschlichen Wissens öffneten, wird der Ursprung einer Theorie zugeschrieben, in deren Mittelpunkt ein Schöpfer steht.
Stoff zum Nachdenken...• Sowohl der Gläubige, der an die Existenz Gottes glaubt, als auch der Atheist üben Glauben aus, für keinen von beiden
der beiden muss seine Position empirisch beweisen. Jeder kann seine Position nur im Glauben annehmen.
• Es gibt diejenigen, die sagen, dass es keine Absolutheiten gibt (wie einen Schöpfer). Diese Aussage kann jedoch nicht absolut bewiesen werden. Wenn es bewiesen wäre, wäre das erste Absolute geschaffen: Absolute gibt es nicht! Die von Albert Einstein vorgeschlagene Relativitätstheorie besagt, dass alles relativ in Bezug auf die Lichtgeschwindigkeit ist, die von ihm als Absolutes gilt.
• Am Beispiel des Ursprungs des Schokoladenkuchens neigen wir dazu, die erste Theorie als normal und die zweite als absurd zu akzeptieren. Die beiden Theorien sind jedoch analog zu Ursprungstheorien. Die Theorie, dass der Kuchen von jemandem gemacht wurde, entspricht der kreationistischen Position. Die Theorie, dass der Kuchen das Ergebnis eines umkippenden und in Brand geratenen Supermarkt-Lastwagens war, entspricht der Position der Naturforscher. Es ist nicht seltsam zu sagen, dass Kreationismus. dass das Natürliche absurd ist und dass der Naturalismus, der das Absurde ist, natürlich ist?
• Alle wissenschaftlichen Bücher werden ständig aktualisiert. Wenn die Bibel, die von vielen als veraltet und irrelevant angesehen wird, hinsichtlich ihres ursprünglichen Inhalts nie aktualisiert werden musste, was können wir dann über unsere wissenschaftlichen Bücher und unsere Wissenschaft sagen?
Kosmologisches Argument■âdÈB.- m
mm
TF- •• „Wissenschaft und Philosophie suchen eine Sache.“
im Grunde...
wSPA-Ursache der Unendlichkeit ist die Existenz der Unendlichkeit
P der Ewigkeit ist die Existenz des Ewigen, der grenzenlose Raum ist die Allgegenwart der Macht, ist die Allmacht... der Weisheit ist die Allwissenheit der Persönlichkeit, das Persönliche
. der Emotionen ist das Emotionale, des Willens ist der Wille... der Ethik ist das Moralische... der Spiritualität ist das Spirituelle... der Schönheit ist die Ästhetik... der Gerechtigkeit ist die Heiligkeit... . der Liebe ist die Liebe... des Lebens ist Existenz...
Prager Astrouhr, Republik
U i i l á l U '
KAPITEL 2
A O r i g e m d a
INFORMATION:
D e s i g n INT e l g e n t e
„Der Geist, der sich einer neuen Idee öffnet
WIRD NIE ZUM URSPRÜNGLICHEN O SHU T A M A N H O ZURÜCKKEHREN.
A l b e r t F.i n s t e í n
„FINE Ú T I L UT A RM O S PO R U M A BO A IDEE.
Q u a n d o u m a i d é i a é b o a . e la s e g u e o s e u c a m i n h o s o z i n h a .'
Roger Fornier
42
Was ist die Theorie des intelligenten Designs?
Was bedeutet zunächst das Wort „Design“? Design bedeutet Entwurf, Projekt, Plan, Bauart oder
Planung. Grundsätzlich handelt es sich bei der Intelligent Design Theory (IDT) um eine wissenschaftliche Theorie mit empirischen Konsequenzen und ohne jegliche religiöse Bindung. Es geht darum, empirisch zu ermitteln, ob das in der Natur beobachtete Design ein echtes Design (das Produkt einer organisierenden Intelligenz) oder ein Produkt von Zufall, Bedürfnissen und Naturgesetzen ist.
TDI lässt sich auch am besten als Informationstheorie beschreiben, in der Informationen sowohl zum zuverlässigen Indikator für Design als auch zum Gegenstand wissenschaftlicher Untersuchungen werden. Intelligentes Design ist daher die Theorie, die darauf abzielt, Informationen (Informationen, die im Design der Natur enthalten sind) und die Art und Weise ihrer Übermittlung zu erkennen. In der Biologie beispielsweise argumentiert TDI, dass Leben aufgrund seiner Komplexität nicht spontan durch natürliche Prozesse entstanden wäre. Der Ursprung der in der Komplexität des Lebens enthaltenen Informationen resultiert daher nicht aus sogenannten natürlichen Prozessen. Es ist wichtig zu beachten, dass die Theorie des intelligenten Designs die Existenz eines Designers (des Schöpfers) nicht identifiziert oder vorschlägt.
Der Vorschlag über die Existenz eines Designs in der Natur stammt aus der Zeit der antiken griechischen Philosophen. Platon (427-347 v. Chr.) glaubte, dass das Universum nach einem rationalen Plan geschaffen wurde.
Durch die berühmte These von William Paley (1743-1805), die 1802 veröffentlicht wurde, erlangte Design-Schlussfolgerungen im menschlichen Denken Platz
als „Uhrmacherthese“. Diese These geht davon aus, dass alle Teile des menschlichen Auges so konstruiert sind, wie die Teile einer Uhr perfekt für die Zeitangabe konstruiert sind.
zum Zweck des Sehens. In beiden Beispielen argumentierte Paley, dass es möglich sei, die Merkmale eines intelligenten Designers zu erkennen.
Nehmen wir das Beispiel der Uhr. Stellen Sie sich vor, jemand zerlegt eine Uhr, um alles Mögliche über sie zu erfahren, über die Materialien, aus denen sie hergestellt wurde, wie sie funktioniert und über die Teile, aus denen sie besteht und die im Zusammenspiel miteinander ihre Funktionsfähigkeit gewährleisten. Diese Person könnte genug lernen, um sogar eine weitere Uhr herzustellen, die genau wie die erste ist. All dies wäre eine einzige große wissenschaftliche Studie.
Allerdings hat solch eine Person nie denjenigen, der die Uhr hergestellt hat, in seine Studien einbezogen. Die Komplexität des Objekts veranlasste sie, die Uhr zu studieren und den Uhrmacher zu bewundern. Die Tatsache, dass nicht berücksichtigt wird, wer auch immer die Uhr hergestellt hat, macht ihre Untersuchung im strengsten Sinne des Wortes nicht weniger wissenschaftlich. Ebenso untersucht die Intelligent Design Theory das Design, das in gefunden wird
A O !,■' C; > 43
Natur, unabhängig davon, ob es einen Designer gibt oder nicht. Die Rückkehr zu Vorschlägen für einen Entwurf in der Natur erfolgte während der
in den 1980er Jahren. Fortschritte in der Biologie begannen eine zunehmende Zahl von Biologen, Chemikern, Mathematikern, Wissenschaftsphilosophen und anderen Wissenschaftlern davon zu überzeugen, dass die darwinistische Theorie völlig unzureichend war, um die erstaunliche Komplexität der Lebewesen zu erklären.
Dieser neue Schwerpunkt auf der wissenschaftlichen Forschung wurde als „Intelligentes Design“ bekannt, eine Nomenklatur, die zur Unterscheidung von früheren Versionen der Designtheorie sowie zur naturalistischen Verwendung des Begriffs Design übernommen wurde. Mit diesem Schwerpunkt hat sich die Forschung dazu positioniert, zu zeigen, dass (1) intelligente Ursachen notwendig sind, um komplexe biologische Strukturen voller Informationen zu erklären, und dass (2) diese Ursachen empirisch nachweisbar sind.1
Um die Intelligent-Design-Theorie besser zu verstehen, müssen wir verstehen, mit welchen Beweisen sie arbeitet und wie diese Beweise bewertet werden können. Daher ist es notwendig, zwei Konzepte zu verstehen, die in der Theorie des intelligenten Designs verwendet werden. Sie sind: Beweise für spezifizierte Komplexität (CE) und irreduzible Komplexität (Cl).
Bevor wir jeden einzelnen von ihnen erklären, wollen wir ein wenig den zentralen Punkt von TDI untersuchen, nämlich die Information.
O Q u e é In f o r m a ç ã o?
Informationen sind nicht materiell, erfordern jedoch ein materielles Medium zur Speicherung und Übertragung. Information ist kein Leben, aber – Information in Zellen ist für alle Lebewesen lebenswichtig. Information ist eine notwendige Lebensvoraussetzung.
Claude E. Shannon war der erste Forscher, der versuchte, Informationen mathematisch zu definieren. Seine Theorie versuchte, Informationen aus rein statistischer Sicht zu beschreiben. Bekannt wurde sein Werk durch die Veröffentlichung „AMathematical Theory of Communication“ (Urbana (USA), University Press, 1949).
Allerdings deckte Shannons Definition von Information nur einen kleinen Aspekt der Information ab, nämlich den statistischen Aspekt. Diese begrenzte Definition konnte nicht als Grundlage für eine Theorie über den Ursprung des Lebens dienen, war aber ein entscheidender Schritt.
Bei Informationen ist ein wichtiger zu berücksichtigender Aspekt der Inhalt und nicht nur die Anzahl der verwendeten Symbole. wenn nicht
Endokrine Zelle
/er in der Literatur die Werke von William A. Dembski.
44 C T
Wenn es Realität wäre, könnten wir sagen, dass die großen literarischen Werke nur verallgemeinerte Mischungen von Buchstaben des Alphabets wären, was offensichtlich nicht stimmt. Somit ist klar, dass es sich bei Informationen um viel mehr handelt als nur um eine Menge von Symbolen und die Mittel, mit denen diese Symbole aufbewahrt werden. Mit anderen Worten: Informationen sind keine Eigenschaft der Materie, denn bei der Zusammenstellung einer Nachricht kommt es auf ihren Inhalt an und nicht auf das Medium, in dem die Nachricht kodiert wurde.
Der Nachricht ist es auch egal, ob Ihr Inhalt wichtig ist oder nicht, wertvoll oder nicht, sinnvoll oder nicht. Nur wer die Nachricht empfängt, kann sie nach der Dekodierung auswerten. Daher haben Informationen an sich keinen Wert.
Sehen wir uns also an, was Informationen wertvoll macht. Es gibt fünf Ebenen des Informationsbegriffs, nämlich:
1. Statistik2. Syntax
3. Semantik f i) I I I V4. Pragmatisch5. apobetisch
Der Rosetta-Stein, wie er genannt wird, war ein Stück schwarzer Basalt, das von Napoleons Männern in der Nähe des Hafens Rosette entdeckt wurde
Ägypter im Mittelmeer im Juli 1799. Lassen Sie uns die fünf Informationsebenen anhand eines Beispiels veranschaulichen.
N i v e l U m : Statistik a
Der Rosetta-Stein ist in drei verschiedenen Schriften beschriftet: 54 Zeilen in griechischer Sprache, 32 Zeilen in demotischer (kursiver ägyptischer Schrift) und 14
Linien in Hieroglyphen. Insgesamt gibt es 1419 Hieroglyphensymbole (116 verschiedene) und 468 griechische Wörter. Dies ist Ihr statistischer Aspekt.
Wenn wir hier anhalten würden, wüssten wir nichts über die im Rosetta-Stein enthaltenen Informationen. Daher hat der statistische Aspekt der Informationen fast keinen Bezug zu den Informationen selbst (Anhang C zeigt die statistische Studie zu den Informationen sowie das statistische Beispiel der Informationen zum genetischen Code).
Rosetta Stone
STUFE ZWEI: SYNTAX Die Hieroglyphensymbole auf ägyptischen Denkmälern
Bis dahin galten sie als reine Zierpflanze. Mit dem Rosetta-Stein konnte jedoch gefolgert werden, dass es sich bei den Hieroglyphensymbolen nicht um ornamentale Muster handelte, sondern um in grammatikalischer Form organisierte Symbole, die in Sätze umgewandelt wurden, die wiederum Sätze und Absätze bildeten.
Die Syntax befasst sich mit einer bestimmten Anzahl von Symbolen und den damit verbundenen Regeln, damit Informationen kodiert werden können. Daher hängt die Syntax mit der Kodierung zusammen (Symbole und Regeln, die zum Formatieren von Informationen verwendet werden).
Es gibt viele bekannte Codesysteme:® Binär:___________ 2 Symbole® Dezimal:__________ 10 Symbole
Alphabet:___________26 Buchstaben• genetisch:__________ 4 chemische Buchstaben (ACTG)
Das zu übernehmende Codesystem hängt weitgehend davon ab, wie es verwendet wird.
• visuelle Attraktivität________ Alphabet für Gehörlose • wenige Symbole____binäre® Übertragung_______ Morsecode® Maximierung______DNA
Es kommt aber auch auf die Art der Kommunikation an.® elektrochemisches______ Nervensystem• biochemische________ DNA® optische_____________ geschriebene Sprachen• akustische ___________gesprochene Sprachen
Wie können wir einen Code identifizieren? Es gibt vier notwendige Bedingungen:
• eine einzelne, definierte Gruppe von Symbolen. Beispiel: a,b,c,d,e,f,g,h,ij,
• eine unregelmäßige Folge einzelner Symbole. Beispiel: eroberbar
• eine klare Struktur, in der Symbole vorkommen. Beispiel: Du und ich denken gleich
• ein mögliches Vorkommen der Wiederholung von Symbolen. Beispiel: Die Maus nagte an der Kleidung des Königs von Rom
Es gibt eine fünfte unabdingbare Voraussetzung für die Identifizierung: • eine erfolgreiche und sinnvolle Entschlüsselung
Die Syntax befasst sich daher mit der Informationsebene zwei, in der Symbole und Regeln definiert werden, damit die Nachrichtenverschlüsselung stattfinden kann.
A O p G E 1/ .. A • •> R ' I A 45
Alphabetsymbole für Gehörlose
46
Nív e l Trê s : Se m â n t ic a
Die Hieroglyphen auf dem Rosetta-Stein erhielten ihre Bedeutung, nachdem sie von Jean-François Champollion (1790-1832) entziffert wurden. Da die drei Texte identisch waren (nur Übersetzungen), war es möglich zu wissen, dass der Inhalt des Rosetta-Steins aus einer Hommage an König Ptolemäus bestand, die die Priester von Memphis um das Jahr 196 v. Chr. verfassten.
Die Semantik befasst sich daher mit der Bedeutung der durch die Syntax dargestellten Struktur. Sowohl die Reihenfolge der Symbole als auch die Regeln sind für die Darstellung von Informationen von wesentlicher Bedeutung. Das wichtigste Merkmal von Informationen liegt jedoch nicht in der Art des gewählten Codes oder in seiner Größe, sondern in der Bedeutung des Inhalts.
Nív e l Q u a t r o : Pr a g m á t ic a
Auf dieser Ebene wird die Absicht berücksichtigt, die durch die durch die darin enthaltenen Anweisungen übermittelten Informationen zum Ausdruck kommt. Alle Informationen sind zielgerichtet. Jede codierte Anweisung soll nach der Decodierung durch die andere Partei bestimmte Ergebnisse liefern.
Im Fall des Rosetta-Steins ist die Botschaft ein Dekret. Der Text spricht von den Wohltätern, die König Ptolemaios getan hatte, und davon, was die Priester von Memphis tun wollten (Anweisungen), um ihn zu ehren. Der Rosetta-Stein selbst ist das Produkt eines der von den Priestern vorgeschlagenen Dekrete (Anweisungen).
KLINISCHES EBENE: APOBETISCH
Der Begriff apobetisch2 bedeutet Ergebnis. Auf dieser Ebene konzentrieren sich die Überlegungen auf die Ergebnisse, für die die Informationen übermittelt wurden. Wenn es Informationen gibt, dann deshalb, weil es einen Zweck gibt. Mit anderen Worten: Jede einzelne Information hat einen Zweck.
Die Priester von Memphis wollten, dass das (apobetische) Ergebnis der von ihnen dargebrachten Huldigung künftigen Generationen als Erinnerung erhalten bleibt. Was ist passiert.
In f o r m a ç ã o e V id a
Alle diese fünf Informationsebenen können in der Sprache, in der Schrift, kurz gesagt, in intelligenten Kommunikationsaktivitäten des Menschen beobachtet werden.
Materie, Information und menschliches Leben. Würden diese Konzepte auch für die Informatik gelten?
2 O termo Apobética foi introduzido por Werner Gitt erm 1981, em Information und Entropie als Bindeglieder diverser Wissenschaftszweige.
A 0 -, : G 47
z. B.? Und noch mehr: Würden diese Konzepte auch für die in lebenden Organismen vorhandenen Informationen gelten? Die Antwort ist ja!
Manfred Eigen, Träger des Nobelpreises für Chemie (1967), identifizierte in seinen Schriften das seiner Meinung nach zentrale Problem der Forschung im Zusammenhang mit der Entstehung von Leben und Information: „Unsere Hauptaufgabe besteht darin, einen Algorithmus zu finden, ein Naturgesetz, das funktioniert.“ uns zum Ursprung der Informationen [die in Lebewesen enthalten sind].“3 Eigen identifizierte nur einen Teil des zentralen Problems.
Um festzustellen, wie das Leben begann, ist es unbedingt erforderlich, den Ursprung der darin enthaltenen Informationen zu verstehen und nicht nur, wie diese Informationen kodiert wurden. Mit anderen Worten, was wäre der Ursprung der ... Informationen, die im genetischen Code (DNA) enthalten sind, da keiner der beiden Algorithmen
.'anfred Eigen, Steps Towards Life: A Perspective on Evolution, Oxford University Press, 1992, S. 12.
:,ed Dretske, Knowledge and the Flow of Information, Cambridge, Mass., MIT Press, 1981 o. 4. Auch zitiert von William A. Dembski in seinem Werk Intelligent Design as a Theory of n Formation.
Nicht einmal Naturgesetze sind in der Lage, solche Informationen zu erzeugen? Die bloße Existenz eines Algorithmus, der den GE-Code beschreiben würde
Netic würde eine Intelligenz implizieren, die in der Lage ist, die in diesem Code enthaltenen Informationen zu verstehen, um einen Algorithmus zu ihrer Beschreibung zu erstellen. Der große moderne Mythos naturalistischer Theorien besteht darin, das Auftreten vorhandener Informationen in Lebewesen rein natürlichen Ursachen zuzuschreiben, die keinen willentlichen Ursprung haben.
Dois Tip o s d e C o m p l e x id a d e
Kehren wir nun zu den beiden bereits erwähnten Konzepten zurück, die in der Theorie des Intelligent Design verwendet werden: spezifizierte Komplexität und irreduzible Komplexität. Wie hängen Komplexität und Information zusammen? Was wären komplexe Informationen (CI) und wie könnten wir sie erkennen? Wie unterscheidet man zwischen spezifizierter und unspezifizierter Komplexität?
Zunächst ist es notwendig, das Konzept der Information in den TDI-Vorschlägen zu verstehen. Fred Dretske sagt, dass „[...] die Informationstheorie die Menge an Informationen identifiziert, die mit dem Ereignis verbunden sind oder durch dieses erzeugt werden, d
Information kann als die Verwirklichung einer Möglichkeit unter Ausschluss anderer definiert werden. Diese Definition umfasst sowohl Syntax als auch Semantik. Einfach ausgedrückt: Informationen sind etwas Messbares,
Schneeflocken
48
weil es Möglichkeiten eines Geschehens voraussetzt und nicht nur ein Kommunikationsmittel.
Um Informationen besser zu verstehen und zu messen, unterscheiden wir zwischen zwei Arten von Ordnung (oder Organisation), die wir um uns herum sehen. Die Schneeflocken auf der vorherigen Seite haben eine Struktur, deren Ursprung mit den Naturgesetzen erklärt werden kann, die die Kristallisation von Wasser beim Gefrieren regeln. Die Schneeflocken zeigen, dass es ein gewisses Maß an Organisation und Komplexität gibt, das auf natürliche Ursachen zurückzuführen ist. Für viele würde dies dazu dienen, den Vorschlag eines intelligenten Designs zu widerlegen, denn wenn Materie unter bestimmten Umständen zu Komplexität führen kann, warum könnte dies unter anderen Umständen nicht der Fall sein?
Lassen Sie mich etwas näher auf dieses Konzept eingehen. Stellen Sie sich vor, Sie sind Geologe und erforschen viele verschiedene Felsformationen. Aus Ihren Studien wissen Sie, dass Felsformationen hauptsächlich aus der mineralischen Zusammensetzung von Gesteinen und der durch Wasser und Wind verursachten Erosion entstehen. Viele dieser Formationen scheinen geschnitzt worden zu sein. Wenn man sie jedoch genau und genau betrachtet, erkennt man, dass diese Ähnlichkeit nur oberflächlich ist. Naturgewalten hätten das hervorgebracht, was Sie sehen.
Lassen Sie mich nun eine andere Art von Ordnung oder Organisation veranschaulichen. Als Geologe beschließen Sie, den Mount Rushmore in den Vereinigten Staaten zu besuchen. Dort sind vier in den Fels gehauene Gesichter amerikanischer Präsidenten zu finden. Diese Formen sind aufgrund der Erosion anders als alles, was Sie jemals untersucht haben.
In diesem Fall wäre die Form, die Sie in den Felsen sehen, nicht das Ergebnis natürlicher Prozesse der Felsformationen. Wie war es möglich, zwischen den beiden Arten zu unterscheiden?
Felsformationen, zwischen dem, was die Kräfte der Natur hervorbrachten, und dem, was die Intelligenz hervorbrachte? Offensichtlich liegt die Antwort in den Zeichen der Intelligenz, die der zweite Typ zeigt, Intelligenz, die durch die Menge der präsentierten Informationen wahrgenommen werden kann.
Wenn wir in der Natur nur die erste Art von Ordnung finden würden, würden wir zu dem Schluss kommen, dass natürliche Ursachen völlig ausreichen, um die Welt um uns herum zu erklären. Eine intelligente Ursache wäre, wenn sie existierte, nur eine entfernte und bedeutungslose „Erste Ursache“. Wenn wir jedoch Beispiele der zweiten Art finden würden, die durch Intelligenz hervorgebracht werden, wäre das ein Beweis für eine Aktivität intelligenten Ursprungs. Die Wissenschaft selbst würde auf einen intelligenten Ursprung außerhalb des physischen Universums hinweisen.
Im Beispiel des Geologen wurde Komplexität in beiden Arten von Gesteinsformationen festgestellt. Was die einen Typen von den anderen unterschied, waren die Anzeichen von Intelligenz, die durch die spezifische Komplexität erkannt wurden, die bei dem einen und nicht beim anderen zu finden war. Die Komplexität in Mt.
Monte Rushmore, E.U.A.
G R R M 49
P.ushmore hat ein Ziel und veranlasst den Beobachter zu einer Reaktion (fünf Ebenen des Informationskonzepts). Hier haben wir den Unterschied.
Komplexität existiert in Gesteinsformationen, sie ist jedoch das Ergebnis von: Erosionsprozessen. Schneeflocken sind zwar komplex, aber sie sind das Ergebnis von Temperatur, Luftfeuchtigkeit und anderen Faktoren, die die Festigkeit der Kristallstruktur bestimmen. Die Farben, die in der Schönheit eines Sonnenuntergangs erscheinen, der so viele Dichter inspiriert, sind zwar komplex, aber auch in diesem Herbst ist sie nur das Ergebnis bekannter physikalischer Phänomene (atmosphärischer Zustand und Sonnenstand).
Natürliche Ursachen reichen völlig aus, um alle oben genannten Phänomene zu erklären. Dieses Buch hingegen ist ein Beispiel
von Informationen in Form einer bestimmten Komplexität.5 Sie kann nicht durch natürliche Ursachen, wie etwa die zufällige Platzierung der Buchstaben des Alphabets, erklärt werden. Hier liegen die fünf Ebenen des Informationsbegriffs vor.
Spezifizierte Komplexität erscheint immer in Form spezifizierter Informationen und steht in direktem Zusammenhang mit dem Zweck. Wenn Informationen spezifiziert werden, beispielsweise was für eine Funktion erforderlich ist, um ein bereits vorhandenes Muster zu reproduzieren, sagen wir, dass sie entworfen wurde. Das mathematische Modell spezifizierter Komplexität ist sehr umfassend und wurde in der Literatur vorgestellt.6
Schauen wir uns nun das zweite Konzept an: irreduzible Komplexität. Michael Behe definiert in seinem Buch 4 Darwin's Black Box1 irreduzible Komplexität
cl anhand des folgenden Beispiels: Ein System, das eine reduzierbare Komplexität aufweist, ist ein System, das ein Subsystem aus mehreren miteinander verbundenen Teilen aufweist, so dass, wenn einer von ihnen entfernt wird, die Grundfunktion erhalten bleibt
:: System ist verloren. Mit anderen Worten bedeutet irreduzible Komplexität das gleichzeitige Zusammentreffen der kleinsten Anzahl unabhängiger Komponenten.
::exzise sequenziert und angepasst, damit das Ganze funktionieren kann. Der von vielen Biologen des letzten Jahrhunderts vorgeschlagene Reduktionismus, dessen
Es ist. . Die Hauptsache bestand darin, die gesamte Biologie in physikalisch-chemischen Begriffen zu erklären, sie hat nichts mit dem Konzept der irreduziblen Komplexität zu tun. Irreduzible com-r.exity (Cl) ist ein Sonderfall spezifizierter Komplexität,
'j das heißt, vorhandene Informationen in ihren fünf Ebenen.Dr. Jónatas Machado von der Universität Coimbra macht Folgendes
Die spezifizierte Komplexität wurde 1973 von Leslie Orgei in einem anderen Theof Life, New York, John Wiley & Sons, 1973, S. I89.
sr2 für eine detaillierte Auswertung siehe William A. Dembski, The Design Inference: Elinr.inatinq Zrance Through Small Probabilities, Cambridge University Pres.s, \998, Kap.: t. c'ael Behe, Darwin's Black Box, Rio de Janei'O, Jorge Zahar Leditor, 1998
50
Kommentar: „Der Darwinismus mit seiner Betonung zufälliger Mutationen ohne jeglichen systemischen Zweck oder Ziel kann die kumulative Komplexität erklären, aber er kann nicht die irreduzible Komplexität molekularer Maschinen mit mehreren funktionell integrierten und präzise koordinierten Teilen erklären.“8
Protonisches Nanomaschinenprojekt, basierend auf Salmonellen-Proteinmotoren (Escherichia coli und einige Streptokokken).
ERATO – Explorative Forschung für fortschrittliche Technologie – Japan.
N a t u r e D e s i g n : A p a r a n t e r
Wir sind uns bewusst, dass Naturgesetze und -phänomene eine in der Natur vorkommende Komplexität erklären können. Allerdings sind sie nicht in der Lage, die vorgegebene Komplexität auch in der Natur zu erklären. Wie ist es in diesem Fall zu erklären?
William Dembski beschreibt in seinem Buch No Free Lunch zThe Design Inference, was er einen erklärenden Filter nennt, um den Ursprung eines Prozesses zu demonstrieren. Dieser Filter kann in drei Fragen zusammengefasst werden, die in der folgenden Reihenfolge gestellt werden:
(1) Kann der Prozess durch ein wissenschaftliches Gesetz erklärt werden? (2) Kann der Prozess durch Wahrscheinlichkeit erklärt werden? (3) Kann der Prozess durch Design erklärt werden?
Um es so auszudrücken: „Der Informationsgehalt einer Struktur ist die Mindestanzahl an Anweisungen, die zur Definition der Struktur erforderlich sind.“9 Je komplexer eine Struktur ist, desto größer ist die Anzahl der Anweisungen, die zu ihrer Definition erforderlich sind.
Nur ein intelligentes Design kann etwas erklären, das eine große Komplexität aufweist (eine große Menge an vorhandenen Informationen).
Daher kann die Existenz von Design in der Natur nachgewiesen werden. Aber wie geht das? Die nebenstehende Tabelle kann uns helfen.
Punkt A stellt etwas dar, das durch natürliche Prozesse entstanden ist. Punkt B stellt etwas dar, das durch intelligentes Design geschaffen wurde. Die Mittellinie stellt die Grenze dessen dar, was natürliche Prozesse hervorbringen können. Diese Grenze ist sehr wichtig. Natürliche Prozesse sind keine Quellen spezifizierter komplexer Informationen. nur zum Entwerfen
8 Jónatas E. M. Machado, Biblical Creationism: The Origin and Evolution of Life Studies, Revised Academic Center of Christian Democracy, Nova Série, Coimbra, Juni 2004, S. 136.
9 Leslie Orgel, The Origins of Life, New York, John Wiley & Sons, 1973, S. 190.
T3fD-gxa>Cl
Mich
s HàI
P J Grenze natürlicher Prozesse
Spezifikation
A 0 R i G E M i H F 0 R M A Ç A 0 51
intelligent kann das Erscheinen bestimmter komplexer Informationen zugeschrieben werden. Wenn wir also eine große Anhäufung von Informationen finden, können wir sagen, dass natürliche Prozesse nicht die primäre Ursache waren.
Die Molekularbiologie hat uns gezeigt, wie komplex alle Lebensformen sind. Ein „einfaches“ Bakterium oder ein Mensch weisen alle ein hohes Maß an Komplexität in ihren Systemen und in den Informationen auf, die diese Systeme produzieren und koordinieren.
Die Entdeckung des genetischen Codes lieferte ein neues Argument für die Theorie des intelligenten Designs. Da Leben seinem Wesen nach ein chemischer Code ist, muss der Ursprung des Lebens mit dem Ursprung dieses Codes in Verbindung gebracht werden und nicht mit den chemischen Elementen, die ihn bewahren. Und da es sich bei Code um eine besondere Art von Ordnung und Organisation handelt, ist er ein klares Beispiel für eine bestimmte Komplexität. Im Fall der DNA können wir sie als Complex Specified Information (CSI) bezeichnen.
Viele Wissenschaftler sind anderer Meinung und sagen, dass die Suche nach so etwas wie Design in Lebensformen rein philosophisch sei. Richard Iawkins, der bekannte britische Zoologe, sagt: „. . .Biologie ist das Studium von . 3komplizierte Dinge, die aussehen, als wären sie für einen Aufbewahrungsort konzipiert.“10 Lässt uns die Komplexität der Informationen, die in allen Lebensformen zu finden sind, vermuten, dass sie entworfen wurden, oder sind wir uns dessen sicher?
Die Auswirkungen von intelligentem Design liegen auf der Hand. Sehen wir es uns einmal anders an. Wir beginnen alle mit ta
ein Punkt wie der, den wir am Ende dieses Satzes sehen.Aj . In diesem kleinen „Punkt“ befanden sich alle Informationen über unsere körperlichen Eigenschaften, wie die Farbe unserer Augen, die Farbe unserer Haare, die Farbe unserer Haut, die Art unserer Knochenstruktur und alles andere. \ errrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr ich. Innerhalb dieses „Punktes“ befand sich der :: Lebenscode, die DNA. Obwohl z.c in seiner Grundstruktur einfach ist, ist es inhaltlich äußerst komplex.
DNA kombiniert nur die vier Buchstaben des rhenetischen Alphabets, Adenin (A), Thymin (T), Guanin (G) und Cytosin (C), um genetische Wörter, Sätze und Absätze zu bilden. Diese Strukturen bilden die sequentielle Grundlage aller Anweisungen.
Werkzeuge, die das Funktionieren jeder Zelle von Lebewesen steuern. Dieser genetische Code und die von ihm bestimmten Prozesse sind Beispiele
:= eine bestimmte Komplexität. Äußerst interessant ist die Tatsache, dass
10 mm großer menschlicher Fötus im Alter von etwa 7 Wochen.
Fotografiert von Ed Uthman, MD.
:~ard Dawkins, The Blind Watchmaker, [1986], Penguim, London, 1991, S. 6.
52 T i r o vi _ v 0 L
K r e a t i o n i s m s
Glauben Sie mir
Pferd
J J rW kurz f
yS JnelliaMt De i£pa
M. *■ *ICH WERDE EOftREST REDEN
Pfote. Grob
es wird besser verstanden, wenn man es mit der menschlichen Sprache vergleicht. Da es sich um einen Code handelt, ist der genetische Code das molekulare Kommunikationssystem der Zelle.
Dieser Vergleich der DNA mit der menschlichen Sprache ist so klar, dass Hubert P. Yockey sagte: „Es ist wichtig zu verstehen, dass wir nicht auf der Grundlage von Analogien argumentieren. Die Sequenzhypothese [das heißt, dass die genaue Reihenfolge der Symbole die Informationen aufzeichnet] gilt direkt für Proteine und den genetischen Text sowie für die geschriebene Sprache und wird daher mathematisch identisch behandelt.“
Vergleichen Sie diese Tatsache mit den Fortschritten in der Wissenschaft. Wissenschaftler verfügen heute über die Fähigkeit, im genetischen Code enthaltene Proteine zu synthetisieren. Die Frage ist, wie das gemacht wird. Offensichtlich nicht durch Prozesse, die Zufall oder Zufall vortäuschen.
Diese organischen Verbindungen können nur reproduziert werden, wenn Beschränkungen für die in den Experimenten angenommenen Grenzwerte geschaffen werden (dies wird als Design oder Planung bezeichnet). Nur durch intelligente Entscheidungen, die in jedem Schritt des Prozesses (Design) getroffen werden, kann das Endergebnis erreicht werden.
Wenn wir herausfinden wollen, wie die ersten informationshaltigen Moleküle entstanden sind, wäre es dann nicht sinnvoller anzunehmen, dass zu dieser Zeit irgendeine Form von Intelligenz vorhanden war, die das in ihnen gefundene Design hervorbrachte?
Da die Reproduktion dieser Moleküle im Labor einen intelligenten Ursprung erfordert, erfordert das in der Natur vorkommende Design, das durch die spezifizierten komplexen Informationen belegt wird, gleichermaßen einen intelligenten Ursprung. Der Zufall bringt keine Anzeichen von Intelligenz hervor!
D e s i g n In t e l ig e n t e e C r ia c i o n is m o
Das von Barbara Forrest und Paul R. Gross verfasste Buch „Creationism’s Trojan Horse: The Wedge of Intelligent Design“ präsentiert die Theorie des Intelligenten Designs als das Trojanische Pferd der Kreationisten. Mit anderen Worten, TDI ist eine verschleierte Version des Kreationismus (sogar der religiösen).
Intelligente Designtheorie und Kreationismustheorie können miteinander verflochten sein, sind aber nicht synonym. Die Intelligent Design Theorie verweist auf die in der Natur vorhandenen Informationen und nicht auf den Ursprung dieser Informationen im Sinne eines Designers. Ziel ist es, in der Natur vorhandene Informationen aufzuspüren und auszuwerten. Die Spezielle Schöpfungstheorie weist darauf hin, dass ein Schöpfer der Ursprung der in der Natur vorhandenen Informationen im Design ist.
11 Hubert P. Yockey, Self Organization Origin of Life Scenarios and Information Theory, Journal of Theoretical Biology, 91, S. 16.
A 0 li I ü F i
Es ist wichtig darauf hinzuweisen, dass nicht jeder Kreationist die Theorie des intelligenten Designs akzeptiert und verteidigt und dass nicht jeder Verteidiger der Theorie des intelligenten Designs ein Kreationist ist. Der Hauptunterschied zwischen den beiden Theorien liegt in ihren grundlegenden Vorschlägen zum Ursprung der Komplexität:
Intelligente Designtheorie – Erkennung und Untersuchung der in der Natur vorkommenden Zeichen von Intelligenz.
Spezielle Schöpfungstheorie – Erkennen und Studieren der Zeichen der Intelligenz und deren Zuordnung zu a
Schöpfer als Quelle der Intelligenz, die im in der Natur vorkommenden Design zu finden ist.
Daher kann es Schöpfung ohne intelligentes Design und intelligentes Design ohne Schöpfung geben. Beispielsweise wäre es möglich, dass die Welt so entsteht, dass nichts in ihr auf eine absichtliche Gestaltung hindeutet. Dies scheint die Position von Richard Dawkins in seinem Buch „The Blind Watchmaker“ zu sein. Selbst wenn das Universum keine Beweise für eine absichtliche Gestaltung aufweist, kann nicht gesagt werden, dass es nicht erschaffen wurde. Denn zu sagen, das Universum sei voller Zeichen der Intelligenz, es sei aber nicht erschaffen worden, käme dem Versuch gleich, zu erklären, wie zufällige und natürliche Kräfte die Zeichen der Intelligenz auf den Gesichtern von Präsidenten auf dem Mount Rushmore hervorgebracht haben könnten.
Diese Zeichen von Intelligenz, die man in der Natur in einem absichtlichen Design findet, wären irrelevant, wenn die Quelle, aus der sie stammen, entfernt würde.
:in die Existenz begründet, da Intelligenz und Absicht Merkmale geistiger Aktivität und nicht natürlicher Kräfte oder Prozesse sind.
Viele Verteidiger naturalistischer Theorien sind verwirrt darüber, dass intelligentes Design ein kreationistischer Vorwand ist, weil sie Folgendes nicht verstehen:
Die Existenz eines Schöpfers zu akzeptieren ist ein rationaler Akt. (Ursache-Wirkung: wissenschaftliche Methode – Wissenschaft) Zu akzeptieren, wer der Schöpfer ist, ist ein Akt des Glaubens.
(Religion)
54 C o vi o T u d o C o m e ç o u
WISSENSCHAFTLICHE FORSCHUNG
Entstehung und Entwicklung des Lebens
&natürliche Auslese
Auswahl &Formulare
&natürliche Auslese
+ genetische Rekombination + Mutationen
+ geografische Isolation
Naturalismus, Kosmovision
materialistische Annahmen_
was wäre passiert
Evolutionismus (Wahrscheinlichkeit und Zufall)
*so wie es passiert wäre
Darwinismus (zufällige Variationen ohne Willen)
so wie es passiert wäre
Neodarwinismus (Variationen durch zufällige Kombinationen)
so wie es passiert wäre
Moderne Synthesetheorie (zufällige Variationen, die durch Fehler in der DNA verursacht werden
+ Umweltbedingte Eventualitäten)
?
A O K I ü C M D A I N I- O K M A f, A Cl 55
Kreationismus, Kosmovision
willentliche Annahmen
WISSENSCHAFTLICHE FORSCHUNG
£ Vo, was passiert wäre
Intelligente Designtheorie (spezifizierte Informationen und irreduzible Komplexität)
%Der Ursprung von Informationen und die Komplexität des Lebens
Vierter Weg, wie es passiert wäre
Schöpfungstheorie (schöpferischer Akt)
komplexe, spezifizierte und zielgerichtete Codierung
♦ wie es passiert wäre
Spezielle Schöpfungstheorie (Schöpfer + kreativer Akt)
codierte Informationen, die aus dem Willen resultieren
ft Religiöser Kreationismus
„Wer ist der Schöpfer?“
Gottheit(en) Religion
♦ Jüdisch-christlicher Kreationismus
Islamischer Kreationismus Andere
56
C o m o a s Theorien sind verwandt
Nehmen wir den Evolutionsvorschlag als Grundlage. Die Grundlage der Evolutionstheorie ist der Naturalismus. Mit Naturalismus ist die rein materialistische Position gemeint, die keinen Bezug zu einer möglichen übernatürlichen Schöpfung hat und behauptet, dass es in der Erscheinung des Lebens keinen oder keinen Rückschluss auf einen Willen gab.
Die am meisten akzeptierte Theorie zur Erklärung der Evolution wurde von Darwin vorgeschlagen, wobei die natürliche Selektion der wichtigste Evolutionsmechanismus ist.
Der Neodarwinismus (ein Begriff, der von George John Romanes geschaffen wurde) befasst sich mit den verschiedenen möglichen Arten der Selektion, wobei natürliche Selektion und sexuelle Selektion Beispiele dafür sind.
Die synthetische Theorie vereint die Vorschläge des Darwinismus und Neodarwinismus, der von Gregor Mendel vorgeschlagenen biologischen Vererbung, der Populationsgenetik und der Mutationen, die durch die Änderung der Häufigkeit von Allelen zur Artbildung (Biodiversität) führen würden.
Die vorherigen Seiten zeigen vereinfacht, wie der naturalistische Vorschlag und der kreationistische Vorschlag mit den bestehenden Theorien zusammenhängen (weitere Einzelheiten werden in Kapitel 4 behandelt).
Po r Q u e N ã o U m D e s ig n In t e l ig e n t e ?
In den Vereinigten Staaten, wie in den meisten westlichen Ländern, wurde bis zum Beginn dieses Jahrhunderts nur der naturwissenschaftliche Vorschlag als wissenschaftlich akzeptiert und in den Schulen gelehrt. Dies stellt eine sehr merkwürdige Tatsache dar, wenn man sie im Lichte der Forschungsergebnisse angesehener Fachzeitschriften in Ländern mit hohem Bildungsniveau und wissenschaftlicher Forschung betrachtet.
In den Vereinigten Staaten beispielsweise ergab eine in der Zeitschrift Nature veröffentlichte Umfrage, dass der folgende Prozentsatz der Erwachsenen glaubt, dass die Evolutionstheorie eine wissenschaftliche Theorie ist, die durch Beweise gut gestützt wird:12
20 % derjenigen, die nur über einen Hochschulabschluss verfügen, 32 % derjenigen, die einen Universitätsabschluss haben, 52 % derjenigen, die einen Master-Abschluss haben, 65 % derjenigen, die einen Doktortitel haben. In der Zeitschrift National Geographic Brasil, im Artikel aus dem Bericht von
Cover über Darwin, David Quammen, erwähnt dies in Umfragen des Gallup Institute, ebenfalls in den Vereinigten Staaten, in den Jahren 1982, 1993, 1997 und
12 Geoff Brumffel, „Who Has Design On Your Students‘ Mind?“, Nature, Bd. 434, 28. April 2005, S. 1063.
A U ü li M 57
Im Jahr 1999 sank der Anteil derjenigen, die den Kreationismus akzeptierten, nie unter 44 %, also fast die Hälfte der Amerikaner!13
Viele betrachten diese Zahlen als Ausdruck dafür, ausschließlich den Evolutionismus zu lehren, aber das ist nicht der Fall. Das Überraschende ist, dass im heute fortschrittlichsten Land der Welt, in dem sowohl Kreationismus als auch intelligentes Design weder als wissenschaftliche Vorschläge akzeptiert noch in Schulen gelehrt werden, laut der Zeitschrift Nature nur 65 % derjenigen, die einen Doktortitel haben, Glauben Sie, dass die Evolution eine durch Beweise fundierte wissenschaftliche Theorie ist!
Warum glauben 35 % der Befragten, die einen Doktortitel haben und während ihres gesamten akademischen Lebens nur mit dem Evolutionismus in Berührung gekommen sind, nicht, dass die Evolution eine wissenschaftliche Theorie ist, die durch Beweise gut gestützt wird? Aus religiösen oder wissenschaftlichen Gründen?
Zu Lebzeiten von Charles Darwin und seinen Zeitgenossen, bis in die Zeit vor Watson und Francis Crick (die die Struktur der DNA entdeckten), wurde angenommen, dass Zellen aus einer Substanz namens Protoplasma bestehen. Man glaubte, Protoplasma sei nichts anderes als das Ergebnis der in der Chemie und Physik beschriebenen Gesetze und Kräfte (wie die Strukturen von Schneeflocken oder sogar Speisesalz), was deutlich machte, dass es keiner höheren Rationalität bedarf, um seine Existenz zu erklären .
Heute wissen wir, dass eine einzelne Zelle nicht das Produkt einer einfachen chemischen Reaktion ist. Selbst die kleinsten von ihnen alle verfügen über eine erstaunlich perfekte molekulare Maschinerie, die hochkomplex und voneinander abhängig ist, und zwar so sehr, dass die gesamte Zelle stirbt, wenn einer ihrer Teile nicht mehr funktioniert.
Wie bereits erwähnt, legt die DNA in einer Zelle den Aufbau und die Funktionsweise dieser leistungsstarken Proteinausrüstung fest. Durch die spezifische Sequenz der vier Nukleotidbasen (A, C, T, G) findet in der Zelle ständig die Übertragung einer großen Menge an Informationen statt. Diese Informationen sind für die gesamte Vielfalt und Fxität verantwortlich, die in allen zu finden ist die Lebensformen.
Wir wissen, dass diese Sequenzierung nicht das Ergebnis von cis- und physikochemischen Kräften ist, da jedes der Nukleotide genauso leicht an jeden Punkt in der DNA gebunden werden kann (siehe Anhang B für eine Quantilbehandlung).
Modell zur DNA
David Quammen, Was Darwin Wrong?, National Geographic Brasil, Jahr 5, Ausgabe 55, November 2004, S. 42.
58
der Informationen in der DNA). Alle diese Argumente sind bei der Darstellung der Theorie des intelligenten Designs und der Schöpfungstheorie relevant.
Aufgrund des äußerst reichhaltigen Informationsgehalts und der angegebenen Komplexität konnte nur eine Intelligenz einen Satz bilden. Eine Phrase mit naturalistischem Ursprung wäre höchst unwahrscheinlich. Zu genau diesem Schluss kamen wir, als wir uns die DNA anschauten.
Da die „Maschine des Lebens“ eindeutig zeigt, dass sie entworfen wurde, warum nicht die Theorie des intelligenten Designs als wahrscheinliche Hypothese zulassen und sie einer strengen wissenschaftlichen Prüfung unterziehen?14 Warum nicht die Möglichkeit akzeptieren, dass ein Schöpfer die erste Ursache der Existenz ist? des Designs?
14 Im Allgemeinen neigen diejenigen, die den Evolutionismus angenommen haben, dazu, jede andere wissenschaftliche Erklärung für die Entstehung und Entwicklung des Lebens als Theologie zu betrachten. Wenn es um intelligentes Design geht, ist das Nature Magazine, Bd. 434, 28. April 2005, S. 1062–1065 brachte den Artikel „Who hasdesignsonyourstudenfsminds?“ heraus, der diesen Trend deutlich zeigt.
Siehe Antwort auf der nächsten Seite
A O I I G L M 15 A ! N f O H y ç 59
Vielleicht weil für viele
ohne entsprechende Informationen
oder immer noch von Vorurteilen bewegt,
Die Theorie des intelligenten Designs
und die Theorie der besonderen Schöpfung
nichts weiter als eine religiöse Diskussion!
KAPITEL 3
Ein Ursprung von d o
U n i v e r s o :
Astronomie und Kosmologie
„Die unvergleichlichste Tatsache, Respekt vor der Universität.“
IST, DASS ER BEI P R E N SIB E L IST.
AL B E R T EISTEIN
„E s t e b e lí s s i m o s i s t e m a d o S o l . p l a n e t a s e c o m e t a s p o d e r i a s o m e n t e
INTELLIGENTES UND LEISTUNGSFÄHIGES DOMAIN-BERATUNGSVERFAHREN.' ' '
Herr Isaac Newton
62 C 0 M Q T ! D C (' y r
Um zu behaupten, dass sich das Leben auf der Erde über Milliarden von Jahren entwickelt hat, müssten zwei Fragen beantwortet werden: Wann und wie ist das Universum entstanden? Wenn das Universum nicht alt genug ist, hatte das Leben nicht die nötige Zeit, sich zu entwickeln. Woher wissen wir also, wie alt das Universum ist und wie es entstanden ist? Ist er alt, weil er sich über Milliarden von Jahren entwickelt hat, oder noch jung, weil er erst vor kurzem erschaffen wurde?
Es ist offensichtlich, dass kein Mensch anwesend war, als das Universum begann. Erst heute, wenn wir über seine fertige, funktionale und komplexe Struktur nachdenken, suchen wir nach einer Antwort auf seinen Ursprung.
Es ist keine leichte Aufgabe, aber wir haben viele Beweise, die wir studieren und analysieren müssen. Und bevor wir nach einer Erklärung für den Ursprung des Universums suchen, versuchen wir, es etwas besser kennenzulernen.
Was wir sehen und was es wirklich ist ...
Sternwolke im Schützen.
(Foto NASA/HST)
Wenn wir ohne Fernglas oder Teleskop in den Himmel schauen, sehen wir das Bild eines kleinen Teils dessen, was das Universum ist. Es wäre, als würde man ein kleines Blatt betrachten und versuchen, sich alle Pflanzen in allen Wäldern auf allen Kontinenten des Planeten Erde vorzustellen. Der Himmel, den wir mit bloßem Auge beobachten, würde somit mit dem kleinen Blatt in unseren Händen verglichen.
Ein Beispiel hierfür sind die Sterne im Sternbild Orion. Unter uns sind drei von ihnen als die Drei Marien bekannt (in der Astronomie Alnitak oder Zeta Orionis, Alnilam oder Epsilon Orionis und Mintaka oder Delta Orionis genannt). Hier auf der Südhalbkugel sind sie in den Monaten November bis April sehr leicht zu entdecken. Zwei weitere Sterne im Sternbild Orion sind weniger bekannt, aber sehr wichtig: Beteigeuze und Rigel.
Beteigeuze ist ein Roter Überriese und einer der größten bekannten Sterne unserer Galaxie. Sein Volumen beträgt etwa 160 Millionen Mal das Volumen unserer Sonne. Seine Masse ist jedoch 20-mal größer als die Masse der Sonne, sodass Beteigeuze eine Dichte hat, die einem Zehntausendstel der Dichte der Luft, die wir atmen, entspricht. Seine Temperatur wurde auf etwa 3.100 K geschätzt. Außerdem ist er einer der leuchtendsten Sterne seiner Kategorie, etwa 10.000-mal so hell wie die Sonne.
Rigel, der andere, gilt als siebthellster Stern am Himmel (Magnitude 0,14). Seine Leuchtkraft beträgt etwa das 57.000-fache der Leuchtkraft unserer Sonne, sein Durchmesser ist nur fünfzigmal größer als der Durchmesser der Sonne. Seine Temperatur wurde auf etwa 12.000 K geschätzt. Die Temperatur unserer Sonne beträgt 5770 K.
Aber im Volksmund werden die Sterne Três Marias (auch „Três Marias“ genannt) genannt
63
Sternbild Orion
Nebulosa-Pferdekopf
' '78 (NCG 2068 und NGC 2024)
bekannt als Orionsgürtel) bergen eine große Überraschung, wenn sie mit leistungsstarken Teleskopen beobachtet werden. In der Nähe des reichen Sterns Alnitak (Zeta Orionis) befindet sich der bekannte Pferdekopfnebel M78 (NGC 2068 und XGC 2024).1 Etwas weiter unten befindet sich der Orionnebel M42 (NGC 1976) sowie M43 (NGC 1982). .
Diese Objekte sind mit bloßem Auge nicht sichtbar, aber sie sind da. Sie alle sind Teil dessen, was die Wissenschaft das sichtbare Universum nennt. Wie viele andere Objekte dieser Art gibt es im Universum? Sextillionen!
Wir sehen nur das, was nah ist, und doch können wir es nicht ganz klar sehen. Wenn wir einen Stern betrachten, sehen wir ihn nicht.
sich selbst, sondern das Licht, das aus seiner Oberfläche kam und uns erreichte. Damit das Licht jedoch unsere Augen erreichen kann, muss es durch den Weltraum und durch die Erdatmosphäre wandern. In der Atmosphäre befinden sich Staubpartikel. Schichten bewegter Luft und andere Elemente, die eine direkte Beobachtung erschweren. Beispielsweise scheint ein Stern, der von der Erde aus beobachtet wird, zu „blinken“. Diese Schwankung der Sternhelligkeit gibt es tatsächlich nicht. Aufgrund der Bewegung der Luftschichten in unserer Atmosphäre scheint der Stern zu „zwinkern“. Derselbe Stern, beobachtet vom Hubble-Teleskop (das den Weltraum umkreist), würde nicht „blinzeln“.
Der Messier-Katalog war der erste Katalog von Nebeln und Sternhaufen, die für die Astronomie von Bedeutung waren. Charles Messier (1730-1817) hat eine Liste von 103 dieser Objekte zusammengestellt. Die Bezeichnung M 42 bezieht sich beispielsweise auf das Objekt Nr. 42 im Messier-Katalog. Später wurde ein weiteres detaillierteres und vollständigeres System eingeführt, der NGC (New General Catalogue). Auch andere Terminologien werden in der Astronomie übernommen und gefunden, etwa die IC (Index Catalogues). Das NGC und das IC sind Teil der Veröffentlichungen von J. L. E. Dreyer (1888), der zusammen mehr als 13.000 Gataxien auflistete.
Nebulosa Orion M43eM42 (NGC 1976)
Das zentrale Bild wurde durch ein Teleskop aufgenommen.
8 Zoll mit „Tracking“-System. die Seitenfotos
zeigen Objekte, die mit bloßem Auge nicht sichtbar sind. Sie gingen
Aufgenommen von HST, Hubble-Weltraumteleskop. die Pfeile
Zeigen Sie auf den Standort dieser Objekte. Das Bild
Die Mitte zeigt die Três Marias aus einem anderen Blickwinkel als dem, aus dem sie normalerweise zu sehen sind.
am Himmel gesehen.
64
Große Spiralgalaxie von Andromeda M31 (NGC 224)
liegt zwischen 2,4 und 2,9 Millionen Lichtjahren von der Erde entfernt.
(Foto NASA/HST)
Galaxie M33 (NGC 598) gehört zur sogenannten lokalen Gruppe und liegt etwa 3 Millionen Lichtjahre von der Erde entfernt. Berechnungen zufolge nähert er sich dem Sonnensystem mit einer Geschwindigkeit von 180 km/s. Bei dieser Geschwindigkeit wird es in 5 Milliarden Jahren mit unserer Galaxie kollidieren.
(Foto NASA/HST)
M u it o s Mu n d o s A g r u p a d o s
Wenn wir in einer sehr klaren und wolkenlosen Nacht in den Himmel schauen, sehen wir außerdem etwas, das wie eine weiße Wolke aussieht, die über den Himmel zieht. Es ist ein Teil der Milchstraße. Sie sieht aus wie eine weiße Wolke, weil sie Milliarden von Sternen enthält.
Unter den etwa 200 Milliarden Sternen in der Milchstraße gibt es einen Stern der fünften Größe, der unter dem Namen Sol bekannt ist. Das ist unser Stern mit seinen Planeten. Daher ist die Sonne der der Erde am nächsten liegende Stern.
Allerdings ist unsere Galaxie nicht einzigartig. Es gibt Milliarden anderer Galaxien wie unsere, die über das ganze Universum verstreut sind und von denen die meisten eine spiralförmige oder elliptische Struktur haben.
Die unserer am nächsten liegende Galaxie ist die große Spiralgalaxie von Andromeda, bekannt als M31 (NGC 224). Es ist etwa 2,5 Millionen Lichtjahre von der Erde entfernt (etwa 25 Millionen Billionen Kilometer).
Die Andromedagalaxie bildet zusammen mit der Milchstraße und der Galaxie M33 (NGC 598) das, was Astronomen die lokale Galaxiengruppe nennen. Diese lokale Gruppe ist nur eine der 160 anderen lokalen Gruppen (ungefähre Anzahl), aus denen die Virgo-Supergruppe besteht. Und die Jungfrau-Supergruppe ist nur eine von über 270.000 derzeit bekannten Supergruppen, die im sichtbaren Universum existieren. Daher werden Sterne hauptsächlich in Galaxien, Galaxien in lokale Gruppen und lokale Gruppen in Supergruppen eingeteilt.
0 65
Oytnoua
L F CKarSM _
U * • t .
E r ist Pluto 2 0 0 5 FY» 2 0 0 3 E L «
% f W *S c d n o O rc u s Q u a o a r V a ru n a
Lua
4.
0 T a m a n h o d o U n i v e r s o
Um über die Größe des heute bekannten sichtbaren Universums zu sprechen, müssen wir eine einfach zu verwendende Skala zur Messung solcher Entfernungen verwenden. In unserem herkömmlichen Messsystem verwenden wir das Meter als Einheit. Im astronomischen System verwenden wir Astronomische Einheit, Lichtjahr und Parsec als Einheiten zur Messung von Entfernungen im Universum.
Licht hat eine Geschwindigkeit und sie ist sehr hoch, etwa 300.000 Kilometer pro Sekunde im Vakuum. Deshalb können wir es nicht „bewegen“ sehen, aber es „bewegt sich“.
Beispielsweise benötigt das von der Mondoberfläche reflektierte Licht der Sonne etwas mehr als eine Sekunde, um die Distanz zwischen Mond und Erde (ca. 384.400 km) zurückzulegen. Wenn es auf der Mondoberfläche zu einer großen Explosion kommen würde, würden wir hier auf der Erde sie erst nach einer Sekunde sehen.
Aber wenn Licht in einer Sekunde 300.000 Kilometer zurücklegt, wie viele Kilometer legt es dann in einem Jahr zurück? Diese Entfernung nennen Wissenschaftler ein Lichtjahr: etwa 9,46 Billionen Kilometer. Wenn wir also von 1 Lichtjahr sprechen, beziehen wir uns auf diese Anzahl an Kilometern. Die andere Einheit, das Parsec, entspricht etwa 30 Billionen Kilometern oder 3,26 Lichtjahren. Denken wir über die Größe des Universums nach und berücksichtigen wir dabei die Größe unseres Sonnensystems.
Am 14. November 2003 gaben Wissenschaftler von CALTECH und der NASA die Entdeckung eines Planetoiden2 im Sonnensystem bekannt: Sedna. Doch schon früher, am 7. Oktober 2002, war ein weiterer Planetoid entdeckt worden:
1 Im August 2006 wurde für diese Himmelskörper die Bezeichnung „Zwergplanet“ oder „Zwergplanet“ eingeführt.
ErdeVergleich der Durchmesser der Erde, des Mondes und anderer Himmelskörper, die die Sonne umkreisen. Pluto wurde im August 2006 zusammen mit Eris und dem Asteroiden Ceres zu den ersten drei Himmelskörpern einer neuen Kategorie: „Zwergplaneten“. Weitere entdeckte Objekte, die sehr weit von der Sonne entfernt sind, sind in der Kategorie „Kuipergürtel-Objekte“ aufgeführt.
Ungefähre Maße...
1 Astronomische Einheit (AU) – 150 Millionen km
1 Lichtjahr (al) = 9,5 Billionen km
1 Parsec (pc) - 30 Billionen km
66
Quaoar liegt etwa 6,4 Milliarden Kilometer von der Sonne entfernt. Nehmen wir die Entfernung zwischen der Sonne und Quaoar (durchschnittlich 6,4 Milliarden Kilometer) als Zeitfaktor für die Durchquerung (einfache Fahrt):
Interstellares SchiffGeschwindigkeit: 300.000 km/s (Lichtgeschwindigkeit)Reisedauer: 5 Stunden und 55 Minuten
Space Shuttle Geschwindigkeit: 25.000 km/h Reisedauer: 29 Jahre
Überschallgeschwindigkeit des Jets: 2.200 km/h. Reisedauer: 332 Jahre
Verkehrsflugzeuggeschwindigkeit: 800 km/h Reisedauer: 913 Jahre
Formel-1-Wagen Geschwindigkeit: 300 km/h Fahrzeit: 2.434 Jahre
Konventionelle Autogeschwindigkeit: 100 km/h Reisedauer: 7.300 Jahre
Diese Entfernung von der Sonne nach Quaoar, 6,4 Milliarden Kilometer, beträgt nur sieben Zehntel eines Tausendstels Lichtjahrs! Der sonnennächste Stern, Proxima Centauri, ist etwa 4,3 Lichtjahre entfernt!
Die nächste Galaxie, Andromeda, ist mindestens 2,5 Millionen Lichtjahre entfernt! Das Universum ist riesig! Man spricht von 10 bis 15 Milliarden Lichtjahren in jede Richtung (30 Milliarden Lichtjahre von einem Ende zum anderen).
A C o s m o l o gia D o s Po v o s A n t ig o s ...
Die alten Völker zeigten großes Interesse am Universum. Sie studierten die Sterne, die Bewegung der Planeten, zeichneten Sternbilder, erstellten Kalender, lernten die Jahreszeiten kennen, untersuchten die Bewegung des Mondes um die Erde und vieles mehr.
A o I-: I G F VI ;•> 0 in I'. I V i: R 67
Das Maya-Observatorium von Stonehenge
M
Salisbury Plain Wiltshire, England
(2000 n. Chr.)
Chichen Itza Halbinsel Yucatan, Mexiko
(1000 n. Chr.)
r.interessant. Für sie war alles Teil eines großen „Ganzen“, in dem die Erde der Mittelpunkt aller Dinge war.
Diese Menschen bauten wahre Observatorien, um mehr über die Geheimnisse des Himmels zu erfahren. Schon in der Struktur dieser riesigen Observatorien gab es Hinweise darauf, wie viel diese Leute wussten. Beispielsweise wurden das sogenannte Stonehenge-Denkmal in England und das Chichén-Itzá-Observatorium in Mexiko gebaut, um anzuzeigen, wo die Sonne untergeht: sowohl zur Tagundnachtgleiche3 als auch zur Sonnenwende4.
Als Europa im Mittelalter lebte, hatten die Mayas bereits einen Kalender entwickelt, der unserem heutigen Kalender mit einem Jahr von 365 Tagen genau entspricht.
Die Geschichte mit ihren alten Dokumenten zeigt uns, dass die Babylonier über den Tierkreis lachten, die Ägypter ihre Pyramiden und Tempel nach den Sternen am Himmel ausrichteten, die Griechen die Umlaufbahnen der Planeten und Sternbilder studierten und die Araber die Sterne zählten und gab ihnen bestimmte Namen.
Aber für sie alle war das Universum nur eine Welt mit einer Sonne, ein paar Planeten, vielen Sternen und allem, was sich um die Erde drehte.
Frosch. Die Idee der Erschaffung des Universums wurde von der überwiegenden Mehrheit der antiken Philosophen, mit Ausnahme einiger griechischer Philosophen, um das fünfte Jahrhundert v. Chr. akzeptiert.5
Aristoteles, der große griechische Denker (350
a.C.) entwickelte die epizidische Theorie, die darauf abzielte
zeigen, wie die Planeten die Erde umkreisten (die Erde wurde aufgenommen).
als Zentrum des Sonnensystems). Claudius Ptolemäus
(150 n. Chr.) führte diese Theorie fort, indem er sie weiterentwickelte
ein Berechnungssystem zur Bestimmung der Umlaufbahn
der Planeten um die Erde. dieses Komplettsystem
bestand aus 40 Epizykeln. Auch wenn es relativ ist
genau, gab das Modell des Ptolemäus nicht her
Keine physikalische Erklärung für die Bewegung
der Planeten.
: Die Tagundnachtgleiche wird durch die beiden Tage des Jahres dargestellt, einen im Herbst (21. März) und einen im Frühling (23. September), an denen Tag und Nacht genau gleich lang sind, auf der Nordhalbkugel wäre es umgekehrt ). In der Astronomie sagen wir, dass dies die Zeiten sind, in denen die Sonne den Himmelsäquator überquert. Die Sonnenwende wird durch zwei Tage im Jahr dargestellt, einen im Sommer (22. Dezember), den längsten Tag mit der kürzesten Nacht, und einen Tag im Sommer (22. Dezember). und der andere im Winter (21. Juni), dem kürzesten Tag mit der längsten Nacht (auf der Nordhalbkugel wäre es umgekehrt).
: „Alles von Milet, Anaximander, Empedokles, Leukipp und Demokrit waren einige der griechischen Philosophen, die an ein ungeschaffenes Universum glaubten.“
68 T u n o C
Ein Buch der Chroniken der Göttlichen Komödie
A C o s m o l o g ia D a Id a d e M é d ia
Die kosmologische Sichtweise entwickelte sich im Mittelalter zu einer Mischung aus Wissenschaft und Religion. Auf dem europäischen Kontinent gab es kaum wissenschaftliche Fortschritte. Einige Beispiele des damaligen Denkens werden von Dante Alighieri (1265-1321) in seinem Buch „Die Göttliche Komödie“ und von Hartmann Schedel (1440-1514) in seinem 1493 veröffentlichten Buch Liber Chronicarum (Buch der Chroniken) dargestellt . Sie, Himmel und Hölle sowie die Erde, die Planeten, die Sonne und die Sterne waren alle miteinander verflochten. Diese Ansicht blieb bis ins 16. Jahrhundert bestehen.
Die vorherrschende Kosmologie zum Ursprung des Universums war der religiöse Kreationismus, vor allem in Europa, da dies die Position der römisch-katholischen Apostolischen Kirche zum Universum ist.
Die kreationistische Kosmologie der arabischen Völker brachte im selben Zeitraum eine Reihe wichtiger Entdeckungen hervor. Einer der größten arabischen Astronomen, al-Battani, bekannt als Albategnius, erstellte viele astronomische Tabellen. Im 14. Jahrhundert verfügte ein Observatorium im Iran über 400.000 astronomische Manuskripte.
A C o s m o l o g bis Pr é-M o d e r n a
Die Jahre nach 1500 waren aufgrund der vielen Entdeckungen des Heliozentrischen Systems von großer Euphorie geprägt. . . , . , . .deCopernicus bertas. Innerhalb der Theologie wurde das europäische Christentum mit dem konfrontiert
Protestantische Reformation. Das Gleiche begann auch in den anderen Bereichen des menschlichen Wissens zu geschehen und führte zu einer tiefgreifenden Infragestellung der bis dahin akzeptierten Ideen und Gedanken.
0 69
Sir Isaac Newton (1668)
Beispiele antiker Teleskope
Galileo Galilei (1609)
In der Astronomie schlug Nikolaus Kopernikus (1473-1543) ein System vor.
heliozentrisch (Erde und andere Planeten, die die Sonne umkreisen). Die Idee von Kopernikus schien auf den Ideen von Aristarchos von Samos (310-230 v. Chr.) zu basieren. ein griechischer Astronom, der auch die Möglichkeit eines heliozentrischen Systems in Betracht zog.
Tycho Brahe (1546-1601) stellte die genaueste Menge an astronomischen Informationen zusammen, die bis zu seiner Zeit verfügbar waren. Im Jahr 1572 beobachtete er einen neuen Stern“ (was wir heute eine Supernova nennen). diese Entdeckung
- hat die alte Position eines statischen, unveränderlichen Universums auf den Kopf gestellt. Galileo Galilei (1564-1642) war der Astronom, der 1616 dies in Frage stellte
Position der römisch-katholischen Apostolischen Kirche, die besagt, dass sich die Erde um die Sonne dreht. Sein 1609 gebautes Teleskop öffnete die Tür zu einem noch nie dagewesenen Universum.
Johannes Kepler (1571-1630) glaubte, dass die Welt, weil sie von einem intelligenten Schöpfer geschaffen wurde, innerhalb eines logischen Rahmens funktionieren sollte. In Zusammenarbeit mit Tycho Brahe und den von ihm gesammelten Daten entwickelte Kepler seine drei Gesetze der Planetenbewegung, von denen die ersten beiden 1609 in einem Buch mit dem Titel „The New“ veröffentlicht wurden
. L , • . j i- AT 7 • Newtonsches Teleskop (reflektierend) ASrronomia, und das dritte zehn Jahre später, im Jahr 1619, in Im o A Harmonia dos Mundos. In diesem Buch hielt Kepler die folgenden Worte fest: „Groß ist der Herr, unser Gott, groß ist seine Macht und seine Weisheit hat kein Ende.“
Sir Isaac Newton (1642-1727) entwickelte die sogenannte klassische Physik und zeigte anhand der Schwerkraft den Grund auf, warum sich der Mond um die Erde dreht.
Die Erde und die Erde und die Planeten um die Sonne. Im Jahr 1668 erfand Newton
Sekundärspiegel
Vom Betrachter gesehenes Bild
Visier und Linse
MirrorPrimary
70 C O K* O 1 J O C U M I n I
Nebulosa-Schlüsselloch (NGC3372)
(Foto NASA/HST)
das Spiegelteleskop, genannt Newton. Sowohl Newton als auch Kepler haben ausdrücklich behauptet, dass die Welt
war nicht älter als sechstausend Jahre und sie glaubten an den Gott der Bibel.6
A C o s m o l o g ia D o U n iv e r s o D in â m ic o
Das von Newton vorgeschlagene Universum war ein praktisch statisches Universum mit kleinen Abweichungen im Vergleich zu seiner Größe.
Thomas Wright (1711-1786) erwog die Möglichkeit, dass die Milchstraße eine Scheibe oder Kugel aus Sternen ist, die sich um ein Zentrum drehen. Er war es auch, der die Hypothese aufstellte, dass es sich bei den Nebeln7 um Ansammlungen sehr weit entfernter Sterne handelte, die wie die Milchstraße aussahen.
Immanuel Kant (1724–1804), deutscher Philosoph, vermutete, dass das Universum am Anfang aus einer unendlichen und gleichmäßigen Verteilung von Gasen bestand, die durch die Anziehungskraft der Schwerkraft Materie bildeten. Diese Materie, die sich zufällig durch den Raum bewegte, begann sich mit kleinen Rotationsbewegungen zu kleinen Clustern zusammenzuschließen. Als diese Haufen dichter wurden, nahmen ihre Rotationen zu und es entstanden Galaxien. Nach dieser als „Nebelhypothese“ bekannten Theorie hätten ähnliche Prozesse stattgefunden
6 Artikel veröffentlicht in der Bibliotheca Sacra, 1890, S. 285-303,7 Nebel sind wolkenartige Bereiche am Himmel. In der Vergangenheit galten sie als
Referenz für alle Objekte am Himmel, die keine eindeutige Form hatten. Galaxien wurden beispielsweise Nebel genannt. Dies geschah, weil die damaligen Teleskope nicht leistungsstark genug waren, um eine eindeutige Struktur anzuzeigen. Derzeit werden Nebel in drei Kategorien eingeteilt: diffuse Nebel (bei denen Gase und kosmische Teilchen kondensieren), planetarische (Gaskugel, die einige Sterne umgibt und ihnen das Aussehen eines Planeten verleiht) und Supernova-Überreste (oder was von einem Stern übrig bleibt). das explodierte).
71
führte auch zur Entstehung des Sonnensystems. Diese Theorie ging jedoch davon aus, dass sich das gesamte Universum um das Zentrum der Milchstraße dreht.
Diese Ideen8 von Wright und Kant begannen, obwohl sie gegensätzlich waren und ein gemeinsames Element hatten, einer neuen kosmologischen Vision Gestalt zu verleihen: der eines sich entwickelnden Universums.
Um die Mitte des 19. Jahrhunderts wurde der Vorschlag eines Evolutionsmodells des Universums zur vorherrschenden Ansicht, angetrieben durch die Veröffentlichungen von Charles Darwins Schriften („The Origin of Species“, 1859, und „Descent of Man“, 1871). Eine große Revolution wurde entfesselt: gegen die Vorstellung eines erschaffenen Universums. Es wurden Theorien und Formulierungen aufgestellt, um zu zeigen, dass das Universum spontan entstand.
A C o s m o l o g ia D a M o r t e D o U niv e r s o
Allerdings waren diese Theorien nicht ohne große wissenschaftliche Probleme. Erfahrungen entwickelt von Nicolas Léonard Sadi Carnot 1796-1832), James P. Joule (1818-1889), Rudolf Clausius (1822-1888),
\Villiam Thomson – Lord Kelvin (1824-1907) und andere öffneten die Tür zu einem neuen Zweig der Wissenschaft namens Thermodynamik. diese neue Wissenschaft
: brachte eine neue Vision über den Ursprung des Universums. Zwei Gesetze von großer Bedeutung gingen aus den Studien der Thermodynamik hervor.
Erster Hauptsatz der Thermodynamik: „In jedem Prozess wird die Endenergie erzeugt.“
darf die ursprünglich eingesetzte Energie nicht überschreiten.“
Zweiter Hauptsatz der Thermodynamik: „Die erzeugte nutzbare Energie wird immer geringer sein
als die ursprünglich verbrauchte Energie.
Der zweite Hauptsatz der Thermodynamik wird auch als Entropiegesetz bezeichnet. Im Volksmund ist Entropie die Erklärung dafür, warum Dinge normalerweise von organisiert zu unorganisiert übergehen; von komplex bis: einfach. In einem wissenschaftlichen Konzept wird die Entropie verwendet, um zu messen, ob ein Prozess spontan abläuft oder nicht.
Erstes Gesetz
Das E. = q + w wo
AE: Energie des Systems q: Wärme, die in das System eindringt oder es verlässtw: erzeugte oder absorbierte Arbeit
durch das System
Zweites Gesetz
Finale
A S = dqrev
- Initiale ^ j , wo
AS: Entropie des Systems
c/qrev: Änderung der Wärmemenge, die in ein reversibles System eindringt oder es verlässt
T: Temperatur
: Zwei Denkschulen zur Frage der Konstitution von Nebeln gehen auf die Ideen von Wright und Kant zurück. Erst 1920, als dieses Thema von Hariow Shapley (Harvard) und Heber D. Curtis (Lick Observatory) an der National Academy of Sciences debattiert wurde
Ashington ist, dass die Frage aufgrund neuer Beobachtungen entschieden wurde: Das Universum besteht aus mehreren Galaxien.
72 °C ■ ...
NGC 2207 und IC 2163
(Foto NASA/HST)
Dabei sind zwei Dinge sehr wichtig: 1. Bei konstanter Energie tendiert die Entropie zu einem Maximum.2. Wenn die Entropie konstant ist, tendiert die Energie zu einem Minimum. Denken Sie über diese beiden Aspekte der Entropie nach, Rudolf Clausius und Hermann
L. F. von Helmholtz (1821-1894) kam zu dem gleichen Schluss: Da die Energie des Universums konstant ist, tendiert seine Entropie zu einem Maximum.
In praktischer Hinsicht verstanden sie, dass sich das Universum nicht weiterentwickeln kann, da es bereits „im Sterben geboren“ wurde. Dieser „Tod“ des Universums wird in wissenschaftlichen Kreisen als „Hitzetod“ bezeichnet.
Helmholtz kam zu einem weiteren, noch interessanteren Ergebnis. Stellen Sie sich das Universum als eine aufziehende Uhr vor. Wenn der Aufzug beendet ist, stoppt die Uhr. Das gilt auch für das Universum. Wenn Energie nicht mehr in verfügbarer und wiederverwendbarer Form vorliegt, kommt auch das Universum zum Stillstand. Sterne werden sterben und das Leben wird verschwinden. Aber das ist eines der Enden: das Ende. Und das andere Ende: der Anfang? Hier kommt die Schlussfolgerung, zu der Helmholtz kam. So wie jemand am Anfang die Uhr aufziehen musste, musste das Universum eine endliche Zeit in der Vergangenheit „mit Energie versorgt“ werden, was einen Verstoß gegen den zweiten Hauptsatz der Thermodynamik darstellt. Mit anderen Worten: Nach der These von Helmholtz ist das Universum nicht ewig und musste erschaffen werden, und eine spontane Entstehung ist wissenschaftlich nicht möglich.
Diese Ansicht eines sterbenden Universums stimmte jedoch nicht mit Darvvins Evolutionstheorie überein. Alles soll besser und nicht schlechter werden. Alles sollte ein Fortschritt in Richtung Perfektion sein.9
9 Charles Darvvin, Der Ursprung der Arten.
A O «
A C o s m o l o g i a d o Big Bang
Neue Entdeckungen machten ein 1848 veröffentlichtes Buch:Sehen Sie, wie seine Hauptidee mit der Wissenschaft geteilt wird. Edgar Allan Poe (1809-1849) schlug in seinem Buch Eureka als erster vor, dass das Universum existiert
Es war von Gott aus dem Nichts durch eine gigantische Explosion eines Urteilchens erschaffen worden. Der Urknall war geboren.
Im Jahr 1917 stellte Albert Einstein (1879-1955) mit seiner Allgemeinen Relativitätstheorie eine kosmologische Konstante (auch bekannt als .àmbda) auf, durch die ein statisches, sich nicht ausdehnendes Universum als Lösung seiner Gleichungen betrachtet werden konnte. Einstein kam zu dem Schluss, dass das Universum
es war „geschlossen“, das heißt, es hatte kein Ende (wie eine Kugel, die kein Ende hat, nur ein Innen- und ein Außen).
Edwin Hubble (1889-1953) bewies mit dem 100-Zoll-5-Meter-Teleskop am Mount Wilson Observatory, dass das Universum existiert
voller Galaxien und dass Galaxien Sternhaufen sind. Darüber hinaus schlug Hubble vor, dass Galaxien nicht stationär seien. Dieser Vorschlag von c!e. hängt mit der spektrografischen Verschiebung des Lichts von Galaxien in Richtung „Rot“ zusammen (im wissenschaftlichen Sprachgebrauch wird dieses Phänomen als Rotverschiebung d-u-Verschiebung des Lichts in Richtung Rot bezeichnet). Aus dieser Interpretation schloss er, dass sich das Universum ausdehnt.
George Gamow (1904-1968) führte mehrere Studien im Zusammenhang mit der ursprünglichen Urknallhypothese durch. Nach seinen Berechnungen hätte diese Explosion Wasserstoff, Helium und andere im Universum vorkommende Elemente produzieren und eine Hintergrundstrahlung hinterlassen sollen. Diese Hintergrundstrahlung ähnelt der Hitze, die eine Person empfindet, wenn sie nachts einen Raum im Haus betritt, der den ganzen Tag der Sonne ausgesetzt war. Gamow kam zu dem Schluss, dass wir auch heute noch einen Teil der durch diese Explosion erzeugten „Hitze“ vorfinden müssten, wenn es im Rassado zu einer großen Explosion gekommen wäre. Seine Berechnungen ergaben einen Wert von etwa 30 Kelvin (etwa 240°C unter Null).
Arno Penzias und Robert W. Wilson fanden 1965 Hintergrundstrahlung. Durch ihre Arbeit mit einer Antenne am Bell Labs Rare Space Communications Research Center fanden sie viel mehr Funksignale als erwartet. Nach der Analyse der Daten kamen sie zu dem Ergebnis einer Hintergrundstrahlung in der Größenordnung von 3 Kelvin (270 °C unter _e Null). Diese Beobachtung galt als „Echo des Urknalls“.
Die NASA untersuchte diese Hintergrundstrahlung mit zwei speziell für diesen Zweck entwickelten Satelliten: COBE (Cosmic Background Radiation, 1989) und WMAP (Wilkinson Microwave Aniso:ropic Probe, 2001).
Albert Einstein
Edwin Hubble
George Gamow
Edgar Allan Poe
74
Als Basen gilt der Urknall
Beobachtungsbeweise
Universum in Materie, Überbleibsel, Glühen, Expansion, entstanden durch Explosion
Eine naturalistische Theorie über den Ursprung des Universums
Laut der Encyclopedia Britannica ist der Urknall eine „… weithin akzeptierte Theorie der Entwicklung des Universums. Sein Hauptmerkmal ist das Erscheinen des Universums aus einem Zustand extremer Temperatur und Dichte – dem so genannten Urknall –, der vor mindestens 10.000.000.000 Jahren stattfand …“10
Seit mehr als einem Dreivierteljahrhundert ist die Urknalltheorie die Theorie, die von der überwiegenden Mehrheit der Wissenschaftler in den Bereichen Kosmologie, Astronomie und Astrophysik akzeptiert wird (siehe Anhang E).
Die Urknalltheorie basiert auf zwei Grundannahmen: (1) der von Albert Einstein vorgeschlagenen allgemeinen Relativitätstheorie, die die Realität der gravitativen Anziehung aller Materie beschreibt, und (2) dem kosmologischen Prinzip, das besagt, dass praktisch jede Region des Das Universum sieht genauso aus wie jedes andere. Dies impliziert, dass der Urknall nicht an einem bestimmten Punkt im Raum, sondern gleichzeitig quer dazu stattfand. Mithilfe dieser beiden Annahmen wurde es möglich, das Alter des Universums ab einer bestimmten Epoche zu berechnen, die als Planck-Zeit bezeichnet wird (die Zeit, die das Licht benötigt, um etwa 10–37 Meter zurückzulegen, was der Größe eines typischen Strings in der Stringtheorie entspricht). entspricht 1043 Sekunden).
Von diesen beiden Annahmen ist die erste wissenschaftlicher Natur und kann nicht als philosophisch in Frage gestellt werden. Die zweite Annahme ist jedoch völlig philosophischer Natur (auch als „Kopernikus-Prinzip“ bekannt). So sehr, dass Edwin Hubble selbst, der die Proportionalität zwischen Rotverschiebung und Entfernung von Himmelsobjekten entwickelte, zugab, dass „die Bedingung [von Rotverschiebungen] implizieren würde, dass wir eine einzigartige Position im Universum einnehmen … Allerdings ist die unbequeme Annahme von ein bevorzugter Standort ist unbedingt zu meiden... das ist untragbar... Außerdem
Hintergrundstrahlung
(CBR)
Spektrographische Verschiebung von Galaxien zum
Rot
Fülle
Elemente
10 Sig Sang Model, The New Encyclopaedia Britannica, 15. Auflage, 2:205,1992.
A O :í i o f y d o U i\ i v i. h s 75
es stellt eine Diskrepanz zur Theorie dar, weil diese Homogenität postuliert.“11
Wenn es Unvereinbarkeiten und Schwierigkeiten gibt, müssen wir diese prüfen. Wie im ersten Kapitel erwähnt, ist jede Theorie im Wesentlichen interpretativ. Es werden Beobachtungen gemacht und eine Interpretation gegeben. Auch die Urknalltheorie passt in dieses Schema. Deshalb müssen wir die Grundlagen dieser Theorie analysieren, indem wir ihre Hauptpunkte zusammen mit anderen möglichen Interpretationen der Beobachtungen studieren.
Die Urknalltheorie hat drei grundlegende Punkte, die als Hauptbeweise gelten. Sind sie:
• Spektrografische Rotverschiebung von Galaxien (Ein expandierendes Universum)
• Fülle vorhandener Elemente im Universum (Menge der erzeugten Materie)
• Hintergrundstrahlung (Resttemperatur der ursprünglichen Explosion)
Jeder dieser Punkte ist Teil einer Gruppe beobachteter Phänomene. im Allgemeinen im Lichte der Thesen der Theorie interpretiert.12
Und um das Verständnis dieser Bereiche des Urknalls zu erleichtern, möchten wir sie mit dem Ergebnis einer Bombenexplosion vergleichen. Wenn ein
Wenn ein Blunt explodiert, erzeugt er eine große Menge an Hitze sowie eine große Menge an Partikeln, die mit hoher Geschwindigkeit in alle Richtungen geschleudert werden. Wenn wir uns diese Ergebnisse einer stumpfen Explosion ansehen, können wir viel über die Bombe lernen. Dies ist die Begründung im Vergleich zur Urknalltheorie: Die ursprüngliche „Explosion“ ähnelt der Explosion einer Bombe.
Die Interpretation dieser drei Beobachtungen, die dieser Argumentation folgt, ist Gegenstand zahlreicher Debatten, da die drei „Beweise“ noch nicht vollständig verstanden sind. Es ist wichtig zu wissen, dass es andere Erklärungen für die gleichen Phänomene gibt, die in der Urknalltheorie berücksichtigt werden (siehe Anhang I zur Temperatur, die der Hintergrundstrahlung entspricht).
U m Un i v e r s o Em Expan s ã o ...?
Wenn eine Bombe explodiert, wird eine große Anzahl von Partikeln verdrängt. Viele dieser Teilchen werden, wenn sie sich bewegen, zu
E. P. Hubb, The Observational Approach to Cosmology, Oxford, Clarendon, '937, p. 50-51.I Eine ausführlichere Darstellung der Urknalltheorie finden Sie im Buch The Numerical Universe
Nutty Zosca, von Stephen Hawking, Mandarin Publishing.
76
Wenn sich eine Galaxie vom Beobachter entfernt, erscheint ihr Licht „rötlicher“
wie üblich. Wenn es sich nähert, erscheint sein Licht
„bläulicher“ als normal. Dies ist bekannt als
Doppler-Effekt.
Welle, die von einer Quelle ausgesendet wird
Beobachter
X-Wellenlänge
Beobachter
Wellenlänge X' = X - A X
Beobachter
Z =
Wellenlänge X' = X + &X
AX ~ v X c
z = Rotverschiebung X = Wellenlänge r = Geschwindigkeit des Objekts c = Lichtgeschwindigkeit
stationärer Brunnen
Glühend, Licht ausstrahlend. In Analogie zum Urknall scheint das Licht eines dieser kleinen Teilchen je nach Position des Beobachters relativ zur Bewegung des beobachteten Teilchens eine andere Farbe zu haben. Dies ist analog zur spektrografischen Verschiebung des Lichts von Galaxien in Richtung Rot oder Blau.
Im Jahr 1913 gab Melvin Slipher, ein amerikanischer Astronom, bekannt, dass eine Untersuchung von etwa einem Dutzend Nebeln gezeigt habe, dass sich die meisten von ihnen mit einer Geschwindigkeit von Millionen Kilometern pro Stunde von der Erde entfernten. Slipher war einer der ersten Forscher, der den Doppler-Effekt nutzte, um die Geschwindigkeiten großer Himmelsobjekte systematisch zu messen. Edwin Hubble beobachtete diesen Farbwechsel im Spektrum der Galaxien. Dieser Veränderung wurde die Interpretation gegeben, dass sich das Universum ausdehnen würde. Wenn sich die Galaxien von unserer Galaxie entfernen oder sich ihr nähern, würde sich ihre „Farbe“ ändern. Diese Veränderung wird durch Veränderungen in den Spektrallinien von Elementen wie Natrium, Kalium und Wasserstoff beobachtet (siehe Abbildung auf der gegenüberliegenden Seite). Dies funktioniert analog zum Ton einer Krankenwagensirene. wenn der Krankenwagen
Kommt man näher, ist der Ton höher. Nachdem es vorüber ist, wird der Ton ernster. Für eine Person im Krankenwagen ändert sich das Geräusch nicht.
Diese Interpretation der spektrografischen Abweichung stieß im Zusammenhang mit anderen Beobachtungen auf Schwierigkeiten:
Quelle, die sich mit der Geschwindigkeit v auf den Beobachter zubewegt
Springbrunnen bewegt sich mit Geschwindigkeit
► v vom Beobachter weg
77
1. Verbundene Galaxien weisen unterschiedliche spektrografische Abweichungen auf.13 Das bedeutet, dass miteinander verbundene Galaxien unterschiedliche Geschwindigkeiten haben.
2. Abweichungen, die sich auf bestimmte Werte konzentrieren. Diese Werte werden durch das z-Symbol gekennzeichnet. Beispielsweise haben wir für eine Abweichung (Rotverschiebung) von z=l den Hinweis, dass sich die Wellenlänge seit ihrer Emission bis zum Erreichen des Beobachters verdoppelt hat. Die z-Werte, die Galaxien tendenziell annehmen, betragen 0,06; 0,3; 0,6; 0,9; 1,4 und 1,96. Daraus ergeben sich zwei wichtige Schlussfolgerungen: (1) dass Galaxien bevorzugte Geschwindigkeiten haben, was für Galaxien keinen Sinn ergibt, und (2) dieser Rückgang impliziert, dass sich die Erde in einer einzigartigen Position befindet. Eine nicht eindeutige Position könnte den beobachteten Rückgang erklären, aber die Z-Werte würden kontinuierlich und nicht wie beobachtet in bestimmten Abständen erscheinen. Dies impliziert direkt, dass sich unsere Galaxie im Zentrum des Universums oder sehr nahe daran befand.14
3. Die Rotverschiebung impliziert auch eine Abnahme der Frequenz. Da die Energie des Lichts proportional zu seiner Frequenz ist, kann dies einen Energieverlust bedeuten. Bisher bietet die Urknalltheorie keine Erklärung für diesen möglichen Energieverlust.15
Es ist wichtig darauf hinzuweisen, dass es andere Erklärungen für das Phänomen2, die spektrografische Verschiebung des Lichts in Richtung Rot, gibt, die von großer Bedeutung und Relevanz sind. Sie alle verfügen über eine solide wissenschaftliche Grundlage und bieten Antworten, die gleichermaßen mit der Evidenz vereinbar sind. Nachfolgend sind nur Úgjjm davon aufgeführt.
Der Astronom Fritz Zwicky hatte bereits 1929 vorgeschlagen, dass die seltene Rotverschiebung durch den Energieverlust des Lichts bei Reisen durch den Weltraum verursacht werden würde. Dieser Vorschlag wurde als „Müde-Licht-Theorie“ bekannt. Diese Theorie wird auch heute noch untersucht und erforscht, da sie eine starke Kraft darstellt.16 Eine andere statische Kosmologie, vorgeschlagen von I. E. Segai, stellt die Rotverschiebung direkt proportional zur Raumkrümmung dar.17
-anon M. Arp, Seeing Red, Montreal, Apeiron, 1998. Siehe auch vom selben Autor, Quasars, : edshifts, and Controversies, Berkeley, CA, Interstellar Media, 1987.
iam G.Tifft, Global Redshift Periodicities and Periodicity Variability, Astrophysical Journal, '997, p. 485, 465-483. Siehe auch, der jüngste Autor, Properties of the Redshift„ The ^strophysical Journal, Vol 382, Dezember 1991, p. 396-415, e Redshift Quantization i the Cosmic Background Rest Frame, Journal of Astrophysics and Astronomy, 18(4):415-
-33,1977.: Peebles, Principles of Physical Cosmology, Princeton, The University Press, 1993, S. 138.- Meine Güte, Geschwindigkeitsabhängige Trägheitsinduktion: ein möglicher müder Lichtmechanismus, Apeiron, "991,9-10, S. 35-44.E. Segai e Zhou Z„ Maxwell's Equations in the Einstein Universe and Chronometric Cosmology,
-Syophysical Journal Supplement, 1995,100, S. 307.
Spektrografische Rotverschiebungen
(Rotverschiebungen)H+K
1.200 km/s
I II III i i l l15.000 km/s
III II 1 11
III I I 1 1122.000 km/s
Ich werde 1 Stunde 1
m u in 1 es 139.000 km/s
61.000 km/s
Spektrographische Abweichung der Linien von Wasserstoff und Kalium
beobachtet in vier Galaxien mit ihren jeweiligen Geschwindigkeiten von
Entfernung. Die im Labor durchgeführte Kalibrierung wird oben und unten angezeigt
des Spektrums jeder Galaxie.
Die Energie eines Lichtphotons ergibt sich aus der Gleichung:
E = hf, wo
E = Energie h = 6,63-10'34 J/s/ (Plancksches Wirkungsquantum) f = Photonenfrequenz
78 C v o T i d r C : v r : o
Darstellung der Expansion des Universums. So was
Ein Ballon dehnt sich aus, wenn er aufgeblasen wird, das Design auf seiner Oberfläche
auch „erhöht“. Theoretisch ein Universum, das in war
Durch die Ausdehnung würden sich die Abstände zwischen den darin enthaltenen Objekten vergrößern
auch erhöhen.
V. S. Troitskii entwickelte ein kosmologisches Modell, in dem er die Rotverschiebung als Folge der Abnahme der Lichtgeschwindigkeit interpretierte.18
Alle diese Vorschläge zeigen, dass die Interpretation eines expandierenden Universums nicht die einzige wissenschaftliche Interpretation für das Phänomen der spektrografischen Abweichung des Lichts ist. Mehr dazu wird später besprochen. Es ist auch wichtig zu beachten, dass es sich bei der modernen Sichtweise nicht um die Ausdehnung von Objekten im Raum handelt, sondern vielmehr um die Ausdehnung des Raums selbst, was dazu führt, dass die Objekte von dieser Ausdehnung „getragen“ werden. Es wäre wie die Vergrößerung eines Motivs auf einem Ballon, wenn dieser aufgeblasen wird.
Diese Idee einer plötzlichen Expansion war notwendig, bevor die Urknalltheorie auf die Beobachtung übertragen werden konnte. Es handelte sich um eine Ad-hoc-Lösung. Der Vorschlag wurde von Alan Guth gemacht. Nach diesem Vorschlag hätte das Universum in sehr kurzer Zeit eine Phase schnellen Wachstums (Inflationsperiode) durchlaufen. Mit anderen Worten, es hätte sich in nur 10'35 Sekunden um den Faktor 1025 vergrößert. Das wäre so, als würde man eine Erbse in einer Sekunde in eine Galaxie wie unsere (100.000 Lichtjahre Durchmesser) verwandeln!
Auch heute, so die Befürworter des Urknalls, vollziehe sich die Expansion zwar immer noch, allerdings mit einer fast unendlich langsameren Geschwindigkeit.
U m U niv e r s o C o m Ma s s a C o r r e t a ...?
In unserem Beispiel der Bombenexplosion würden bei der Detonation viele Fragmente entstehen. Also auch ein großer Knall. Vergleichsweise sollten Untersuchungen der durch den Urknall erzeugten „Fragmente“ (chemische Elemente) und der Wechselwirkung dieser Elemente eine bessere Vorstellung von diesem vermeintlichen Ereignis liefern.
18 V. S. Troitskii, Physical Constants and Evolution of the Universe, Astrophysics and Space Science, 1987, 139, S. 389-411. Zur früheren höheren Lichtgeschwindigkeit siehe auch S. Adams, The Speed of Light, Inside Science 147:4, New Scientist 173(2326), 19. Januar 2002.
%
A O r f m r> o U n > v f r s o 79
Grundsätzlich findet sich die im Universum bekannte Materie in den Sternen, in den Galaxien; und diese in lokalen Galaxiengruppen; und diese in Supergruppen, wie wir bereits gesehen haben. Es gibt also eine große Organisation der Materie im Universum. Die Menge dieser vorhandenen Materie und ihre Verteilung sind sehr wichtige Faktoren bei der Erforschung der Entstehung und des Alters des Universums.
Aktuelle Kosmologen gehen davon aus, dass beim Urknall nur die leichtesten Elemente entstanden sind, nämlich Wasserstoff und Helium. Die anderen Elemente im Periodensystem, sogar Eisen, wurden von Sternen durch den Prozess der Kernfusion erzeugt. Elemente im Periodensystem über Eisen wären bei Supernova-Explosionen entstanden. Die Summe all dieser Elemente (Materie) ist das, was wir die Masse des Universums nennen.
Wir wissen, dass Materie durch die Schwerkraft (Massenanziehungskraft) mit Materie wechselwirkt. Dieses Konzept ist bekannt und fest etabliert. Welche Materie also Materie anzieht, um zu beweisen, dass sich das Universum ausdehnt,
Es muss nachgewiesen werden, welche Kräfte entgegen der Schwerkraft wirken. Zum Beispiel: Was würde dazu führen, dass sich zwei Galaxien voneinander entfernen, wenn die Schwerkraft zwischen ihnen sie einander näher bringen würde? Daher muss theoretisch eine Kraft vorhanden sein, die größer ist als die Anziehungskraft zwischen ihnen, damit ein solcher Prozess stattfinden kann.
Die Suche nach dieser Kraft war eines der Hauptforschungsgebiete der Astrophysik im Bereich der Dunklen Energie oder Vakuumenergie. Dunkle Energie tauchte erstmals in einer von Einsteins Gleichungen als Konstante auf, die die Schwerkraft ausgleicht und so eine statische Lösung für das Universum liefert. Einstein selbst kam damals zu dem Schluss, dass es ein Fehler sei, diese kosmologische Konstante zu verwenden, die Raum und Zeit verformte3.
Damit das Universum die Form und Stabilität hat, die wir heute in ihm vorfinden, müsste angesichts der in der Urknalltheorie vorgeschlagenen Milliarden von Jahren viel mehr Materie existieren.19 Dieser wichtige Faktor im Zusammenhang mit der Gesamtmasse des Universums wurde als bekannt die fehlende Masse. Diese fehlende Masse, auch exotische Materie oder kalte dunkle Materie genannt, wurde nicht beobachtet. Um dieses Problem zu beheben, sind Schwarze Löcher, dunkle Kometen und die Existenz vieler Systeme erforderlich
Bild der Galaxiengruppe Abell 2029, einer der 26 Gruppen
von Galaxien, die vom CHANDRA-Observatorium auf ihre mögliche Existenz und Auswirkungen untersucht wurden
aus schwarzer Energie.
Kraft aufgrund der Anziehungskraft
f = g m m
Peter Coles, The EndoftheOldModelUniverse, Nature, 1998, 393, 25. Juni 1998, S. 741. Eine ausführliche Erklärung in einfacherer Form findet sich im Buch von John Byl, Deus e Cosmos, Editora PES, 2003, S. 98-100.
80
Bilder aus dem „Kinderuniversum“.
Das obere Bild wurde vom COBE-Satelliten erstellt. Der untere vom WMAP-Satelliten. Die Auflösung des von WMAP erzeugten Bildes ist 35-mal detaillierter als die von COBE. Basierend auf der Interpretation der Daten in der von WMAP erstellten Abbildung berechneten Wissenschaftler das Alter des Universums auf 13,7 Milliarden Jahre, ± 1 %, unter der Annahme, dass die Hintergrundstrahlung das Ergebnis einer anfänglichen Explosion ist.
j auf wW vK- TfirTi - rtflrn
13,7 Milliarden Jahre seit dem Urknall
Solarzellen mit Planeten, sogar Sternen, Galaxien und kosmischem Staub als Materie, die benötigt wird, um die Menge zu liefern, die nicht vorhanden ist.
Ein kühlendes Universum. . .?
Um auf unser Bombenbeispiel zurückzukommen: Wenn sie explodiert, erzeugt sie viel Hitze. Mit der Zeit verflüchtigt sich diese zunächst erzeugte Wärme und es verbleibt nur noch eine geringe Restwärme. Diese im Universum gefundene Resttemperatur wurde zur Berechnung seines Alters verwendet.
1965 entdeckten Amo Penzias und Robert Wilson ein Signal, das aus allen Richtungen im Weltraum kam. Dieses bei einer Wellenlänge von 7,35 cm beobachtete Signal hatte ein Strahlungsspektrum, das mit dem eines schwarzen Körpers identisch war. Die dieser Strahlung entsprechende Temperatur betrug 2.726 Kelvin (ungefähr 270° Celsius unter Null).
Basierend auf dieser Entdeckung wurde die Temperatur des Weltraums von den beiden bereits erwähnten Satelliten COBE und WMAP gemessen. Letzteres erzeugte ein Bild mit einer 35-mal höheren Präzision als das von COBE und mit Temperaturen zwischen 2,7249 Kelvin und 2,7251 Kelvin.
Derzeit geht man davon aus, dass es sich bei dieser Hintergrundstrahlung nicht mehr um Licht handelt, das direkt vom Urknall stammt, sondern vielmehr um Licht, das aus dem Universum kommt, als es bereits auf eine Temperatur von 3.000 °C abgekühlt war, etwa 300.000 Jahre nach dem Urknall. Bei einer solchen Temperatur entstehen Atome
von einem frühen Stadium geladener subatomarer Teilchen zu einer Form von Plasma. Diese Temperatur wird für die Theorie entscheidend.
denn Licht ist elektromagnetische Strahlung und Plasma ist ein undurchsichtiges Medium. Müsste dieses Plasma zu Materie kondensieren?
damit das Universum „transparent“ wird. Nach diesem kosmologischen Modell die Temperatur während des Zeitraums
(die ungefähr 10'32 Sekunden oder 0,0000000000000000000000000000001 Sekunden dauerte) betrug 1019 Kelvin (oder 1 plus 19 Nullen). 100 Sekunden nach der Inflationsperiode wäre die Temperatur des Universums auf 109 Kelvin gesunken. Das ist eine Abkühlung von 100.000 Billionen Grad pro Sekunde! Während dieser ersten 100 Sekunden hätte der Theorie zufolge die Bildung der chemischen Elemente Deuterium (2jH) und Helium (42He) stattgefunden.
Am Ende der Periode der Hintergrundstrahlungsfixierung hätte das Universum eine Temperatur von 107 Kelvin. Wir wissen, dass die aktuelle Temperatur gemessen an der Hintergrundstrahlung etwa 3 Kelvin beträgt. Daher hätte das Universum in den ersten 10.000 Jahren seines Bestehens einen extrem starken Abkühlungsprozess erlebt,
Ö 81
nach dieser Theorie (Anfangstemperatur größer als 1019 Kelvin, Abfall auf 104 Kelvin in 10.000 Jahren). Dies bedeutet eine Wärmeausbreitung in der Größenordnung von durchschnittlich 1015 Kelvin pro Jahr während der ersten 10.000 Lebensjahre des Universums!
Was, Ent ã o, ist das Or ig e m do U niv e r s o?
Nach all diesen Informationen über den Urknall könnte man sich sogar fragen, ob es noch Zweifel an der Entstehung und dem Alter des Universums gibt. Tatsächlich wurde nur vereinfacht beschrieben, was die Urknalltheorie sagt. Es wurden nur wenige Probleme angesprochen. Jetzt ist es an der Zeit, die Beweise über den Ursprung und das Alter des Universums, der Sonne und der Erde zu überprüfen. Unser Ausgangspunkt hierfür ist die Erforschung der Entstehung von Galaxien und der Entstehung von Sternen.
Zur Verdeutlichung möchten wir sagen, dass die kreationistische Theorie davon ausgeht, dass das Universum aus dem Nichts erschaffen wurde (Exnihilo-Schöpfung), vor kurzem vollständig, komplex, funktionsfähig und mit einem möglichen scheinbaren Alter. Es fällt sofort auf, dass die beiden Theorien in den meisten seiner Thesen nicht miteinander vereinbar sind. Was wären dann die Beweise für den Kreationismus?
A O r ig e m d a s G a la xia s
Die Existenz von Galaxien und sogenannten Superstrukturen (Galaxienhaufen) ist ein großes Rätsel, das die Wissenschaft zu verstehen versucht. Diese Bauwerke sind so gigantisch, dass sie hinsichtlich des Verständnisses der räumlichen Dimension alle Grenzen menschlicher Erfahrung sprengen.
Studien, die sich auf den Ursprung von Galaxien konzentrieren, nutzen ihre Morphologie (sei es Spiralen, Ellipsen oder Unregelmäßigkeiten), ihre Masse und ihre Rotation.
Nach der Urknalltheorie müssen für die Entstehung von Galaxien kleine Veränderungen in einer ursprünglichen Gaswolke stattgefunden haben. Es könne keine Homogenität geben, sonst würden sich nicht einmal Sterne bilden. Diese kleinen Variationen hätten gravitative Mikrofelder erzeugt, die dazu führen würden, dass sich die Atome dieser Urwolke zu gruppieren beginnen und so kleine Grundstrukturen entstehen. Diese Strukturen würden weiter wachsen und Sterne entstehen lassen, und diese würden, wenn sie sich gruppieren, Galaxien entstehen lassen.
Wenn es so geschehen wäre, wäre das Universum nicht so gut strukturiert, wie es ist, denn statt Galaxien
Sombrero-Galaxie (M104 oder NGC4594)
Foto: Naso/HST/ESA
Visualisiertes Gebiet im Sternbild Fornax. Für dieses Bild von mehr als 10.000 Galaxien waren 800 Aufnahmen über 400 Umlaufbahnen des Hubble-Teleskops um die Erde erforderlich. Die Gesamtzeit aller Expositionen betrug 11,3 Tage zwischen September 2003 und Januar 2004.
(Foto NASA/HST)
Da sie zufällig im gesamten Universum verstreut sind, kommen sie in definierten Gruppierungen vor.20
Die kleinen Schwankungen der Hintergrundstrahlung hätten niemals zu den Strukturen geführt, die wir heute im Weltraum sehen. Mit anderen Worten: Die Wissenschaft weiß, dass es laut der Urknallkosmologie keine Galaxien im Weltraum geben sollte, da keine von ihnen jemals entstanden sein könnte.21
Selbst mit all der hochentwickelten Ausrüstung, die den Astronomen zur Verfügung steht, dem Hubble-Teleskop, dem Spitzer-Teleskop, dem WMAP und vielen anderen, gibt es keine Galaxien in Form von
Hund. Alle bisher untersuchten Galaxien zeigen keine entstehenden Sterne, sondern fertige und funktionsfähige Strukturen.22
Ein weiteres Geheimnis des Universums ist die sogenannte „Große Mauer“. Es besteht aus Zehntausenden aneinandergereihten Galaxien. M. Mitchell Waldrop sagte: „... es ist zu groß und zu massiv, als dass es sich durch die Anziehungskraft der Galaxien, aus denen es besteht, gebildet hätte.“23
Beispiele wie dieses zeigen, dass die gegenwärtige Struktur, die wir im Universum vorfinden, sowohl der Galaxien als auch der Gruppen und Supergruppen, nicht durch einen Bezugsrahmen erklärt werden kann, der durch eine rein naturalistische Erscheinung geboten wird. Die kleinen Variationen und Schwankungen der Hintergrundstrahlung, die die heutige Wissenschaft feststellt, hätten kein Universum mit seinen Eigenschaften entstehen lassen können.
20 tiefste Infrarotansichten des Universums: VLT-Bilder Vorläufer der heutigen großen Galaxien, Pressemitteilung der ESO vom 23.02.11, Dezember 2002.
21 P. de Bernardis et al., A Flat Universe from High-resolution Maps of the Cosmic Microwave Background Radiation, Nature, 2000, 404:955-959. Siehe auch James Trefil, The Dark Side of the Universe, New York, Charles Scribner's Sons, 1988, Kap. 4, Titel: Fünf Gründe, warum Galaxien nicht existieren können.
22 Uhr MacRobert, Mapping the Big Bang, Sky and Telescope, 11. Februar 2003; siehe auch A. McIntosh und C. Wieland, Early Galaxies DoritFit, Creation 25(3):28-30, Juni-August 2003, und Michael Rowan-Robinson, Review of the Accidental Universe, New Scientist, Bd. 97, 20. Januar 1983, S. 186.
23 M. Mitchell Waldrop, Astronomers Go Up Against the Great Wall, Science Band 246, 17. November 1989, S. 885. Siehe z. B. auch Margaret J. Geller und John P. Huchra, Mapping the Universe, Science, Bd. 246, 17. November 1989, S. 897-9 Siehe auch J. Einasto et al., A 120-Mpc Periodicity in the Three-Dimensional Distribution of Galaxy Superclusters, Nature, 1997, 385, 139.
83
A F o r m a ç ã o s Sakurais Objekt
Walter Baade klassifizierte Sterne in zwei Hauptgruppen: Population I und Population II. Die Populationsgruppe I besteht aus Sternen, die alle Klassen des Spektrums verkörpern, einschließlich der sehr heißen blauen Sterne, die ihren Sternbrennstoff intensiv verbrennen. Stars dieser Gruppe gelten allgemein als „jung“. Sterne der Bevölkerungsgruppe II gelten als „alt“, da ihnen die blauen Sterne fehlen, die schnell ausbrennen.
Eine weitere Gruppe, Population III, wurde später mit dem Ziel gegründet, die kurz nach dem Urknall entstandenen Sterne zu gruppieren. Da beim Urknall praktisch kein Metall (chemisches Element) erzeugt wurde, wären die Sterne der Population III leicht zu identifizieren, da in den Absorptionslinien kein Metall nachweisbar wäre. Es gibt jedoch keine Beobachtungsbeweise, nicht einmal in unserer Galaxie, dass solche Sterne jemals existierten.24
Ein besonderes Phänomen, das zeigt, wie wenig wir über Sterne wissen, ereignete sich im Februar 1996. Yukio Sakurai entdeckte im Sternbild Schütze einen seltsamen Stern, der den Namen Sakurais Objekt erhielt (heute bekannt als V4334 Sagittarii). Im Jahr 1994 war dieser Stern wahrscheinlich ein Weißer Zwerg mit etwa dem Durchmesser der Erde. Im Jahr 1996 war er bereits ein leuchtend gelber Riese mit einem Durchmesser von etwa 70.000.000 km (80-facher Sonnendurchmesser). Dies bedeutete eine Vergrößerung seines Durchmessers um das 8.000-fache (ca. 500 Milliarden Mal seines Volumens). Bis 1998 war er noch größer geworden und hatte sich zu einem Überriesen mit einem Durchmesser von 210.000.000 km (150-facher Sonnendurchmesser) entwickelt. Bis zum Jahr 2002 war der Stern so stark geschrumpft, dass er selbst von den leistungsstärksten optischen Teleskopen (Frequenzen des sichtbaren Lichts) nicht mehr erkannt werden konnte, obwohl er immer noch im Infrarotbereich nachgewiesen werden kann. Diese Art von Objekt ist bei Astronomen als „wiedergeborener“ Stern bekannt. Die Theorie ging davon aus, dass dieses Phänomen über einen Zeitraum von 10 bis 100 Jahren und nicht nur über einige Monate hinweg auftreten würde.25
Ein weiteres Beispiel ist der Stern FG Sagittae, der von einem blauen Stern mit einer Temperatur von 12.000 Kelvin zu einem gelben Stern (mit einer Temperatur von 12.000 Kelvin) wurde
eine Temperatur von 5.000 Kelvin) in nur 36 Beobachtungsjahren. Wir sehen anhand der obigen Beispiele, wie wenig darüber bekannt ist
Sterne und ihre Wirkmechanismen. Über den Ursprung der Sterne ist viel weniger bekannt.
(Niederländisches 0,9-m-Teleskop – ESO The Chair Observatory)
ií<*tl0ftTiD taTfl foo v i j j i a s - UMjtnsa.cct.
Jw ll* OM* 2.4
Größe x Tempo
V (km - 6')
Er I-Emissionslinien in Sakurais Objekt, erhalten
com CRSP Nr. Kitt Peak National Observatory (2,1 m), im Jahr 2000.
(Richard R. Joyce – Wissenschaftlicher Mitarbeiter von Tucson Nightime)
Nein. Bula
1- J.P. Ostriker und N.Y. Gnedin, Reheating of the Universe and Population III, Astrophysical Journal Letters, 1996, 472163.
15 H. Muir, Back from the Dead, New Scientist 177(23841:28-31, 1. März 2003.
84 T
Der Ursprung des Sonnensystems
Da die Sonne ein erdnaher Stern ist, kann sie viel detaillierter untersucht werden als jeder andere Stern im Universum. Sein Ursprung darf sich nicht vom Ursprung der anderen Sterne unterschieden haben. Daher ist die Sonne der beste Kandidat für das Verständnis des Ursprungs von Sternen.
Die Erklärung des Ursprungs der Sonne und ihrer Funktionsweise stellt die Wissenschaft immer noch vor große Herausforderungen. Wir wissen, dass die Sonne pro Sekunde etwa 4 Millionen Tonnen Materie in Energie umwandelt! Diese Menge ist sehr gering im Vergleich zur Gesamtmasse der Sonne, die etwa 1.989.000.000.000.000.000.000.000.000 Tonnen beträgt.
Wie hätten sich die Sonne und die anderen Planeten des Sonnensystems gebildet? Auch hier bedient sich die naturalistische Erklärung der Nebeltheorie, bei der eine Gaswolke durch die Schwerkraft kondensiert und die Sonne und die Planeten gebildet hätte. Auch hier müssen wir die Theorie mit den Beweisen vergleichen.
Der Nebeltheorie zufolge durchlief die Sonne eine Phase, die als T-Tauri-Phase bekannt ist und in der sie einen intensiven Sonnenwind erzeugt hätte,26 der viel stärker war als das, was derzeit beobachtet wird. Aufgrund der Intensität dieses Sonnenwinds wären kosmischer Staub und überschüssige Gase aus dem Entstehungsgebiet des Sonnensystems weggetragen worden, so dass nicht mehr genügend Materie (leichte Gase) für die Planetenbildung übrig geblieben wäre.
Gase wie Jupiter, Saturn, Uranus und Neptun. Auch nach der Nebeltheorie würde die Sonne keine aufweisen
Neigung gegenüber der Ebene des Sonnensystems. Allerdings weist es eine Neigung von ca. 7,25° auf.
Eine weitere Inkonsistenz der Theorie hängt mit dem Drehimpuls des Sonnensystems zusammen, der durch Multiplikation der Masse mit der Geschwindigkeit und der Entfernung berechnet wird. In einem isolierten System wie dem Sonnensystem gilt das Gesetz der Drehimpulserhaltung. Dieser Betrag kann
Rotationszeitraum:
Sonne 25,4 Stunden, Jupiter 9,9 Stunden, Saturn 10,2 Stunden, Uranus 17,2 Stunden, Netun 18,4 Stunden
(Foto NASA/SOHO)
\
26 Sonnenwind ist ein Fluss von Protonen und Elektronen, der von der Sonne in den interplanetaren Raum geschleudert wird. Auswirkungen des Sonnenwinds sind in den Schweifen von Kometen zu beobachten.
A 0 85
durch direkte Beobachtung gewonnen werden, indem die Entfernungen und Massen von Himmelskörpern im Sonnensystem gemessen werden.
Wenn das Sonnensystem durch den Nebelprozess entstanden wäre, würden die Gase, die sich aufgrund des Rotationsprozesses im Zentrum ansammeln, eine Sonne mit hoher Rotation erzeugen. Die Rotation der Sonne am Äquator beträgt 25,4 Tage. Darüber hinaus verfügt die Sonne über etwa 99 % der gesamten Masse im Sonnensystem und nur 2 % des gesamten Drehimpulses.
Wenn die Planeten durch denselben Prozess entstanden wären, gäbe es eine einheitliche Struktur unter ihnen sowie eine einheitliche Bewegung. Diese Einheitlichkeit ist in beiden Fällen nicht gegeben. David Stevenson, Professor für Planetenwissenschaften am California Institute of Technology, sagte: „Das erstaunlichste Ergebnis der Planetenforschung ist die Vielfalt der Planeten … auf der Erde, wenn man nur die anderen Planeten beobachtet.“ Je mehr wir sie betrachten, desto mehr wird uns bewusst, dass jede von ihnen einzigartig zu sein scheint.“27
Der Planet Venus beispielsweise stellt aufgrund seiner vielen besonderen Eigenschaften ein großes und faszinierendes Problem für die Lösung der Entstehung des Sonnensystems dar. Seine Rotation ist retrograd und dreht sich in die entgegengesetzte Richtung zur Rotation der anderen Planeten. Auch auf seiner von der Magellan-Sonde freigelegten Oberfläche gibt es Berge wie den Mount Maxwell mit 11.000 Metern Höhe und Schluchten mit mehr als 9.000 Kilometern Länge, die nur sehr wenig Erosion aufweisen, was auf einen jungen Planeten und nicht auf Milliarden Jahre schließen lässt. Man glaubte, dass die Venus aufgrund ihrer großen Ähnlichkeit mit der Erde ein ähnliches Magnetfeld wie unser Planet haben würde. Wieder einmal hat die Magellan-Sonde, deren Ausrüstung empfindlich genug ist, um ein Magnetfeld zu erfassen, das 25.000 Mal kleiner als das Erdmagnetfeld ist, nicht die Existenz eines Magnetfelds aufgezeichnet, das dem Erdmagnetfeld zumindest ähnlich ist.
Der Mars hat ein 10.000-mal kleineres Magnetfeld als das der Erde. Uranus ist fast 98° zur Ebene des Sonnensystems geneigt. Keine zwei Planeten im Sonnensystem weisen auch nur eine geringe Anzahl von Ähnlichkeiten auf.
Wissenschaftler, die einen naturalistischen Ursprung des Sonnensystems annehmen, sind angesichts der unglaublichen Vielfalt der Planeten sehr frustriert. Das glaubt der Astronom Thomas Clarke von der University of Central Florida
Sonnensystem: vollständig, komplex und vielfältig
Drehung:
mPlanet Venus Erde Mars
Durchmesser 12.104 km 12.756 km 6.787 km
Entfernung von der Sonne 108.200,00 km 149.600,00 km 227.900,00 km
Tag 243,01 Tage (R) 23,934 Stunden 24,623 Stunden
Jahr 224.701 Tage 365,25 Tage 686.980 Tage
Venus
27 Richard A. Kerr, The Solar System's New Diversity, Science, Bd. 265.2 September 1994, S. 1360. Mars
86 C ... 0 •-> E
Galaxie NGC3370, befindet sich bei etwa 98
Millionen Lichtjahre
(Foto NASA/HST)
dass die Entdeckung von Gesteinsplaneten wie der Erde, Venus, Merkur und Mars außerhalb des Sonnensystems unwahrscheinlich ist: „Es ist ein wenig deprimierend zu glauben, dass erdähnliche Planeten so besonders sind.“28
Das Licht der Galaxien und das Zeitalter des Universums
Große räumliche Entfernungen können nicht sein
misst genau und direkt. Damit können Sie die Entfernung zu Sternen messen
sind mit dieser Technik bis zu 200 Lichtjahre von der Erde entfernt
namens Parallaxe (Parallaxe). Größere Entfernungen
werden durch die angenommenen Größen und die bestimmt
Intensitäten der Sterne, die spektrografische Rotverschiebung des Lichts und andere fragwürdige Faktoren,
was meistens nicht direkt der Fall ist
bezogen auf Distanzaspekte.
Wie bereits erwähnt, ist der Blick in den Himmel wie ein Blick durch ein Zeitfenster. Wenn wir in den Himmel schauen, sehen wir die Vergangenheit und nicht die Gegenwart. Wenn ein Astronom die Sonne in diesem Moment fotografieren würde, würde er sie so fotografieren, wie sie vor etwa 8 Minuten und 20 Sekunden war. Dies ist die Zeit, die Licht benötigt, um die Distanz von 149.600.000 km zwischen Sonne und Erde zurückzulegen. Wenn wir also eine Galaxie oder einen Stern betrachten, beobachten wir diese Himmelskörper so, wie sie waren, als das Licht emittiert wurde.
Dies verursacht zwei Probleme. Die erste ist für Kreationisten theoretisch: (1) Wenn das Licht Millionen oder Milliarden Jahre brauchte, um hierher zu gelangen, wie kann das Universum dann neu sein? Das zweite ist ein praktisches Problem für Naturforscher: (2) Warum finden wir bei der Beobachtung des Universums keine Galaxien in Entstehung oder noch junge Galaxien? (Unabhängig von Entfernungen von Milliarden Lichtjahren finden wir immer bereits gebildete und strukturierte Galaxien, die in Gruppen organisiert sind.) Diese beiden Probleme sind durch die Lichtgeschwindigkeit miteinander verbunden. Im Vakuum sind es 299.792.456 km/s (fast 300.000 Kilometer pro Sekunde!).
Das erste Problem wird üblicherweise so diskutiert: Wenn ein Himmelskörper zwei Millionen Lichtjahre entfernt ist, dann brauchte das Licht zwei Millionen Jahre, um hierher zu gelangen. Wie konnte das Universum nur ein paar tausend Jahre alt sein? Diese Befragung basiert auf zwei Tatsachen: dass die tatsächliche Entfernung bekannt ist und dass die Lichtgeschwindigkeit konstant ist. Die Konstanz der Lichtgeschwindigkeit war ein Postulat von Albert Einstein.
28 H. Muir, Eanh Wos a Freak, New Scientist 177(2388):24, 29. März 2003.
87
Gleichung zur Umwandlung des euklidischen Raums in den Riemannschen Raum:
S = 2R ta n '1 ^ , onde
d ist der euklidische Abstand (Linie) und R ist der Krümmungsradius.
Die folgende Tabelle veranschaulicht die Verwendung dieser Formel (Wert
willkürlich für den Krümmungsradius von 3183 Lichtjahren).
Entfernung von einem Stern oder einer Galaxie
(euklidisch) (Lichtjahre)
1
430
100 1.000
10.000 100.000
1.000.000 10.000.000
100.000.000 1.000.000.000
10.000.000.000
Zeit, die mit Licht verbracht wird
(Riemannsche) (Jahre)
14
30 100 992
6.391 9.595 9.959 9.996 9.999
10.000 10.000
Das Licht einer zehn Milliarden Lichtjahre entfernten Galaxie (Euklidischer Raum)
es würde nur zehntausend Jahre (Riemannscher Raum) dauern, um uns zu erreichen,
wenn das Universum eine Riemannsche Krümmung von 3.183 Lichtjahren hätte.
Es gibt mehrere Wissenschaftler, die glauben, dass die Lichtgeschwindigkeit nicht konstant ist.29 Die Wissenschaft weiß nicht, ob die Lichtgeschwindigkeit im interstellaren Raum und im intergalaktischen Raum konstant ist. Wenn also die Lichtgeschwindigkeit in der Vergangenheit viel größer gewesen wäre und bis zu ihrem heutigen Wert abgenommen hätte, wäre die Zeit, die benötigt wurde, um die Entfernung zwischen einem Stern oder einer Galaxie und der Erde zurückzulegen, je nach Wert der Lichtgeschwindigkeit viel kürzer gewesen Geschwindigkeit.
Für Anhänger der Urknalltheorie ist auch die Frage nach der Lichtgeschwindigkeit wichtig. Lichtjahre) in einer Zeit von 1043 Sekunden. Das bedeutet, dass sich elektromagnetische Strahlung (z. B. Licht) mit einer Geschwindigkeit von ca. 5 x 106ü km/s „ausbreiten“ müsste! Im Grunde bedeutet dies, dass das Licht sofort überall hinkommt!
Noch zur Frage der Zeit, die das Licht benötigt, um hierher zu gelangen: Nach der allgemeinen Relativitätstheorie kommt es zu einer Zeitdilatation.30 In diesem Fall würde eine Uhr auf der Erde die Zeit langsamer anzeigen als eine andere Uhr an einem anderen Ort auf der Welt. Universum. Dies würde den Eindruck erwecken, dass das Licht viel länger brauchte, um hierher zu gelangen, als es tatsächlich der Fall gewesen wäre.
Die Frage nach der zurückgelegten Distanz hängt mit der Kenntnis der Krümmung von Zeit und Raum zusammen.31 Im Allgemeinen wird die Entfernung von Sternen und Galaxien zu uns als im flachen oder euklidischen Raum betrachtet. Es besteht aber auch die Möglichkeit, dass die Entfernung im hyperbolischen oder Riemannschen Raum liegt, wodurch Objekte viel weiter entfernt erscheinen würden, als sie tatsächlich sind (siehe Beispiel dieser Berechnungen auf der Seite).
Bevor man also behauptet, dass das Universum nicht jung sein könne, basierend auf dem Argument, dass das Licht von Sternen und Galaxien kommt, muss man beweisen, dass die gemessene Entfernung real ist und perfekt passt.
29 Barry Setterfield, The Velocity of Light and the Age of the Universe, Ex Nihilo, 1981, 4, Nr. 1, S. 38-48 e Nr. 3, S. 56-81. Siehe auch V.S. Troitskii, Physical Constants and Evolution of theUniverse, Astrophysics and Space Science, 1987, 139, S. 389-411; e R. Humphrey, Starlightand Time, Green Forest, AR, Master Books, 1994.
33 Roy E. Peacock, A Brief History of Eternity, Wheaton, Crossway Books, 1990, S. 11 l.VertambémR. Humphreys, Starlight and Time, Green Forest, AR, Master Books, 1994. Verainda John Byl, On Time Dilation in Cosmology, Creation Research Society Quarterly, 1997, 34, S. 26-32.
3 ‘ John Byl, On Smalt Curved-Space Models of the Universe, Creation Research Society Quarterly, 1988, 25, p. 138-40.
88
4
Weiter Distantej i i
liegen auf der realen Krümmungsebene des Universums, wobei die Lichtgeschwindigkeit an allen Punkten im Universum konstant ist.
Die Überlegungen zur kurzen Zeit, die das Licht benötigt, um uns zu erreichen, sind wissenschaftlich und relevant: Tausende und nicht Milliarden von Jahren, obwohl es aus den entferntesten Regionen des Universums kam. Allerdings sagen diese Vorschläge nichts darüber aus, wie Sterne und Galaxien entstanden wären. Der Schlüssel zur Lösung des Rätsels liegt genau in der Antwort auf das zweite Problem: Galaxien gruppieren und altern, obwohl sie noch jung und nicht in definierten Strukturen gruppiert sein sollten. Wie bereits erwähnt, sind die beiden Probleme miteinander verflochten.
Wenn wir Galaxien mit einem hohen Rotverschiebungswert beobachten, was theoretisch bedeutet, dass sie sehr weit entfernt sind, sollten wir sie in einem noch jungen Zustand oder in manchen Fällen sogar in der Entstehungsphase sehen. Die Argumentation folgt der Überlegung des ersten Problems. Wenn eine Galaxie Milliarden Lichtjahre von der Erde entfernt ist, sollten wir sie zumindest theoretisch so sehen, wie sie vor Milliarden von Jahren war, als das Licht die Galaxie verließ. Da theoretisch alle Galaxien zur gleichen Zeit erschienen, wäre es daher möglich, eine entfernte Galaxie (in Milliarden Lichtjahren Entfernung) mit anderen näheren Galaxien (in Millionen Lichtjahren Entfernung) zu vergleichen. Theoretisch liegt der Grund für den Altersunterschied darin, dass das Licht der fernen Galaxie Milliarden von Jahren zurückgelegt haben müsste, um hierher zu gelangen, nachdem es die Galaxie verlassen hatte, als die Galaxie noch sehr jung war. Das Licht benachbarter Galaxien dürfte nur wenige Millionen Jahre zurückgelegt haben, da diese Galaxien bereits seit mehreren Milliarden Jahren existierten. So würde eine entfernte Galaxie das zeigen
A 0 89
als die benachbarten Galaxien in den vergangenen Milliarden von Jahren gewesen wären. Aber überraschenderweise sind sowohl die nahegelegenen Galaxien (nämlich)
nhas) und diejenigen, die weit entfernt sind, scheinen im Vergleich gleich alt zu sein. Ein Vergleich ihrer Strukturen sollte zeigen, dass Milliarden von Jahren der Evolution vergangen sein müssten. Dies ist jedoch nicht das, was beobachtet wird: „Die entfernten Galaxien sind in vielen Aspekten ihren wesentlich näheren Nachkommen überraschend ähnlich.“32 Es ist, als ob dieses Phänomen bezeugt, dass Galaxien in einem bestimmten Entwicklungsstadium „erschienen“ sind und dort geblieben sind. bis Heute. Es ist, als ob die Zeit für Milliarden von Jahren stehen geblieben wäre (siehe nebenstehendes Foto).
Ein möglicher Lösungsansatz zur gleichzeitigen Lösung beider Probleme bietet das Konzept einer Schöpfung mit scheinbarem Alter. Das bedeutet, dass Sterne, Galaxien und Galaxiengruppen bereits fertig entstanden wären und den Anschein hätten, als hätten sie sich über Milliarden von Jahren „entwickelt“.
Der Kosmologe George F. R. Ellis stellt die Frage nach dem scheinbaren Alter folgendermaßen: „... ein gütiger Gott könnte die Erschaffung des Universums leicht arrangieren... so, dass ausreichend Strahlung von den Enden des Universums auf uns zukommen könnte.“ um uns die Illusion eines riesigen, sehr alten und expandierenden Universums zu vermitteln. Für keinen anderen Wissenschaftler auf der Erde wäre es unmöglich, diese Sicht des Universums experimentell oder auch nur beobachtend zu widerlegen. Er konnte nur mit der kosmologischen Prämisse des Autors nicht einverstanden sein.“33
Der verstorbene Professor und Physiker Herbert Dingle kommentierte die Theorie der Schöpfung im scheinbaren Alter wie folgt: „Es besteht kein Zweifel daran, dass diese Theorie frei von Selbstwidersprüchen ist und mit allen Erfahrungstatsachen übereinstimmt, die wir zu erklären haben.“ Es vervielfacht sicherlich nicht die Hypothesen über die Notwendigkeit hinaus, sondern beruft sich nur auf eine; und steht offensichtlich über jeder zukünftigen Widerlegung.“34
Für einige ist diese Erklärung zu einfach. Es ist jedoch kohärent und konsistent mit den Beobachtungen. Ein fertiges Universum scheint eine lange Entwicklungs- und Evolutionsperiode durchlaufen zu haben, obwohl eine solche Zeitperiode tatsächlich nie existiert hat.
Foto eines Clusters entfernter Galaxien aufgenommen
vom Hubble-Teleskop mit dem NICMOS-System
(Foto NASA/HST)
: I NASA, Hubble Takes Faintest Spectroscopic Survey of Distant Galaxies, http://hubblesite.org/newscenter/newsdesk/archive/releases/2004/49/text; e NASA, Hubble Uncovers New Clues to Galaxy Formation, http://opposite.stsci.edu, 1994. Siehe auch G. Schilling, Galaxies Seen at the Universe's Dawn, Science, 1999, 283, S. 21.
3 * G.F.R. Ellis, Cosmology and Verifiability, Quarterly Journal of the Royal Astronomical Society, '975,16, p. 246.
: - Herbert Dingle, Philosophische Aspekte der Kosmologie, Vistas in Astronomy, 1960,1, S. 166.
90
Theoretische Studien zur Dunklen Materie.
Computergeneriertes Bild, das eine simulierte Verteilung dunkler Materie in einem Galaxienhaufen zeigt, der durch dunkle Energie (die der Schwerkraft entgegenwirkt) gebildet wird.
Ent ã o, Q u a n to Te m p o Se Pa s s o u ?
Diese Frage wurde noch nicht beantwortet. Bisher haben wir gesehen, dass die Möglichkeit eines erst kürzlich erschaffenen Universums eine wissenschaftliche Grundlage hat. Aber gibt es Beweise, die eine Grenze für das Alter des Universums, der Galaxien, des Sonnensystems, des Planeten Erde und des Lebens hier auf unserem Planeten darstellen könnten? Mal sehen.
Am 11. Februar 2003 veröffentlichte eine Gruppe von Wissenschaftlern einen Artikel, in dem sie behaupteten, das Alter des Universums berechnet zu haben. Das angegebene Alter betrug 13,7 Milliarden Jahre ± 200 Millionen Jahre.35
Die Forscher berücksichtigten Faktoren wie die theoretische Zusammensetzung des Universums (4 % baryonische Materie wie Atome und Teilchen, 22 % kalte dunkle Materie und 74 % exotische dunkle Energie) sowie die durch die Hintergrundstrahlung angezeigte Temperatur. Am Ende des Artikels tauchen folgende Fragen auf: „Was ist schwarze Energie?“ Was ist dunkle Materie? Was ist das physikalische Modell hinter der Inflationsperiode (oder einer ähnlichen Phase, die wir als Inflation bezeichnen)?“36 Die Antworten werden uns nicht gegeben, da es sich bei allen Fragen um theoretische Vorschläge handelt.
Es ist wichtig zu erwähnen, dass diese Forscher Wert auf die Gewissheit des Alters des Universums legen, obwohl noch nicht einmal bekannt ist, ob die für die Berechnungen verwendeten Parameter existieren! Um die Möglichkeit eines jungen Universums zu klären, wollen wir folgende Überlegungen anstellen:
1. Organisation und Struktur Die Thermodynamik ist eine gut etablierte Wissenschaft mit gut etablierten Gesetzen.
definiert. Das erste seiner Gesetze betrifft, wie wir bereits gesehen haben, die Energieeinsparung. Dieses Gesetz besagt, dass Energie zwar von einer Form in eine andere umgewandelt, aber weder erzeugt noch zerstört werden kann. Aus diesem Prinzip folgt der zweite Hauptsatz der Thermodynamik (Entropie), der besagt, dass bei jedem physikalischen Prozess immer nutzbare Energie verloren geht. Im Allgemeinen zeigt es uns, dass die natürliche Tendenz der Wärme immer darin besteht, sich einem thermischen Gleichgewicht anzunähern (Wärmeübertragung von einem heißen Körper auf einen kalten, bis beide die gleiche Temperatur haben). Konkreter ausgedrückt wäre die normale Tendenz eines jeden Systems, sich selbst zu desorganisieren. Entropie bedeutet gewissermaßen, das Ausmaß der Desorganisation in einem System zu messen.
Die Bedeutung dieser beiden Gesetze für den Ursprung des Universums ist enorm.
35 D.N. Spergel et al, First Year Wilkinson Microwave Anisotropy Probe (WMAP) Observations: Determination of Cosmological Parameters, Astrophysics Journal Supplement 148, 2003, S. 175.
36 Ebenda. Die Fragen finden Sie auf Seite 26 der Veröffentlichung, die auf der Website http://map verfügbar ist. gsfc.nasa.gov/m_mm/pub_papers/firstyear.html
A U n i v f n ‘i 91
Temperaturan ( K )
Temperatur (K)
2.7260
Temperatur (Hintergrundstrahlung)
0 heute Wetter heute Wetter
Darin stellen sie fest, dass die Energie des Universums, da sie konstant ist, dazu führt, dass seine Entropie immer zu einem Maximum tendiert. Mit anderen Worten: Wenn wir diese beiden Gesetze anwenden, werden wir sehen, dass die Gesamtenergie des Universums, da sie konstant ist (sie kann weder erschaffen noch zerstört werden), dazu führt, dass die Energie, die in nutzbarer Form existiert, abnimmt (das Universum zerfällt). .
Dies war die Schlussfolgerung von Rudolf Clausius und Hermann L. F. von Helmholtz: Es ist selten, dass das Universum die Ordnung hat, die es heute darstellt, es muss in der Vergangenheit eine größere Organisation als heute besessen haben, da es mit Energie versorgt war: eine endliche Vergangenheit. Diese Schlussfolgerung hat tiefgreifende wissenschaftliche Implikationen für den Kreationismus. Die naturalistische Urknalltheorie besagt genau das Gegenteil.
Aufgrund des hohen Organisationsgrades, den wir im Universum finden, kann man daraus schließen, dass es neu ist. Denn ein Universum, dessen normale Tendenz darin besteht, heute zu verfallen, wäre, wenn es Milliarden von Jahren alt wäre, ein so chaotisches und unorganisiertes System, wie wir es sehen.
2. Ein Kaltstart In der aktuellen Kosmologie ist die Temperatur des Universums (Hintergrundstrahlung)
:in war ein weiterer wichtiger Faktor bei der Beurteilung Ihres Alters. Die Frage: .m o war der Anfang des Universums, ob extrem heiß oder extrem kalt. impliziert direkt die Berechnung Ihres Alters.
In den obigen Grafiken können wir die beiden Vorschläge zum Ursprung des Universums visualisieren, wobei die geraden Linien in den Grafiken die Richtung der Temperaturänderung veranschaulichen und nicht eine Prozesslinearität andeuten sollen. In der Grafik links haben wir den Vorschlag der Urknalltheorie und in der rechten Grafik einen der kreationistischen Vorschläge.37
Die Urknall-Kosmologie besagt, dass die Wärme der Anfangstemperatur (extrem heißer Beginn) in den letzten etwa 10 Minuten abgeführt wurde
I - Milliarden von Jahren, wobei eine aktuelle Temperatur von etwa 3 Kelvin erreicht wird. Daher hätte sich die Temperatur des Universums verändert.
Diese Temperaturänderung kommt auch in der kreationistischen Kosmologie vor, die davon ausgeht, dass das Universum in einem Zustand hoher Energie erschaffen wurde.
Hermann L. F. von Helmholtz
Vom Autor vorgeschlagener Vorschlag.
92
hochstrukturiert und organisiert, aber dennoch kalt. Der Zweck des Universums besteht darin, hochstrukturiert und organisiert erschaffen zu werden
„ganisiert“ ist das Gleiche, als würde man sagen, dass das Universum mit einem scheinbaren Alter erschaffen wurde, mit Sternen und Galaxien „bereit“ und in vollem Betrieb, was den Anschein erweckt, als sei viel Zeit vergangen. Dieser Vorschlag verfügt über wissenschaftliche Beweise, wie im vorherigen Abschnitt gezeigt wurde.
Die niedrige Anfangstemperatur ergibt sich auch aus Überlegungen der Thermodynamik, die niedrige Temperaturen zu Beginn eines Prozesses vorschlägt, bis dieser eine Gleichgewichtstemperatur mit dem Medium oder eine Betriebsgleichgewichtstemperatur erreicht.
Eine Analogie wäre, das Universum mit einem Verbrennungsmotor zu vergleichen. Sobald der Motor zu arbeiten beginnt, steigt seine Temperatur. Wenn man die Temperaturschwankungen (und andere damit zusammenhängende Faktoren) kennt, könnte man berechnen, wie lange der Motor laufen würde. Die Motoranalogie ist sehr passend, denn das Universum ähnelt einem gigantischen Motor. Wie bei einem Verbrennungsmotor wäre die Anfangstemperatur niedriger als eine andere Temperatur nach dem Starten des Motors, sodass das Universum eine Anfangstemperatur hätte
Der Motor brennt unter der heute herrschenden Temperatur. Wenn wir wissen, wie hoch die Anfangstemperatur und die Heizrate waren,
Wir werden in der Lage sein zu berechnen, wie lange das Universum schon „funktioniert“. Wenn das Universum fertig und funktionsfähig erschaffen würde, wie wir bereits besprochen haben, dann wäre die Laufzeit zumindest theoretisch gleich der Lebensdauer.
In diesem Fall wäre die Anfangstemperatur, die von der Hintergrundstrahlung zum Entstehungszeitpunkt t erfasst worden wäre, 0 Kelvin. Zum Zeitpunkt bis +t würde die Temperatur nicht mehr 0 Kelvin betragen.
Die Berechnung des Alters des Universums in diesem kreationistischen Vorschlag bezieht sich auch auf die Zeit, die benötigt wird, um die Temperatur des Universums von einem Anfangswert auf den heute gemessenen Wert von 3 Kelvin zu ändern. Mit anderen Worten: Wie lange hat das Universum seit seiner Entstehung gebraucht, um sich um 3 Kelvin zu erwärmen? Offensichtlich wären es nicht die von der Urknalltheorie vorgeschlagenen Milliarden von Jahren gewesen.
Die Temperatur und der Organisationszustand zum Zeitpunkt der Entstehung des Universums sind entscheidende Unterschiede zwischen den beiden kosmologischen Modellen mit diametral entgegengesetzten Ergebnissen.
Die im Universum durch die Hintergrundstrahlung gemessene Wärme kann somit zwei verschiedene Interpretationen haben. In beiden Fällen fungiert das Universum als schwarzer Körper. (1) Das Universum begann extrem heiß und kühlt ab (aufgrund des Urknalls) oder (2) Das Universum begann extrem kalt und heizt sich auf (aufgrund der von Sternen abgegebenen Energiemenge).
A 0 -i 93
überhitzte Galaxien und Materiegase). Um das Alter des Universums im vorgeschlagenen kreationistischen Modell zu berechnen,
Die anfängliche hypothetische Temperatur beträgt 0 Kelvin und es wäre nicht nötig, kalte dunkle Materie oder dunkle Energie einzubeziehen.
Der Ausschluss dieser hypothetischen Elemente hat einen Aspekt von großer Bedeutung. Der von der Urknallkosmologie festgestellte Bedarf an der sogenannten fehlenden Masse liegt in einem Universum, das angeblich Milliarden Jahre alt ist. In einem so langen Zeitraum wie diesem hätten die Auswirkungen der Schwerkraft auf die sichtbare Masse (Galaxien und Galaxiengruppen) zu einer solchen Verzerrung geführt, dass das Universum nicht mehr die organisierte Struktur hätte, die es darstellt. Daher ist eine große Menge nichtsichtbarer Masse erforderlich, die das Universum selbst nach Milliarden von Jahren noch mit einer so geringen Verzerrung hätte aufrechterhalten können.
Aber wenn das Universum, wie berechnet, nur ein paar tausend Jahre alt ist, stimmt seine beobachtete Struktur perfekt mit dem Alter überein. Kräfte und Gravitationsfelder hätten nicht genug Zeit gehabt, um eine Verzerrung im Universum hervorzurufen und es zu zerstören. Als Beispiel können wir Spiralgalaxien nennen. Aufgrund der Rotation, die sie aufweisen, sollten die „Arme“ der Sterne aufgrund der auf jeden Stern ausgeübten Zentripetal- und Gravitationskräfte schon vor langer Zeit verschwunden sein. Mit anderen Worten: Die Sterne müssten aufgrund der Rotationsgeschwindigkeit der Galaxie bereits durch den Weltraum „geflogen“ sein.
Eine neuere Schöpfung ist wissenschaftlich wahrscheinlich und steht im Einklang mit der Beobachtung:
1. Erwärmung aufgrund der von Sternen abgegebenen Energie2. Aufgrund der kurzen Zeit noch definierte Strukturen3. Galaxien mit demselben scheinbaren Alter
NGC 628 (M74)
Bewegung der Sterne im Arm einer Spiralgalaxie
(Spiralbewegung im Gegensatz zu der von Wasser, das in einen Abfluss gelangt). Nach ein paar Milliarden Jahren würde die Galaxie nicht mehr existieren
Sterne hätten sich bereits zerstreut.
(Foto NASA/HST)
Fettbegrenzungen
Wenn das Universum noch jung ist, muss auch die Erde jung sein, denn sie kann nicht älter sein als das Universum selbst. Wenn dies der Fall ist,
1. Wie lassen sich die Milliarden von Jahren erklären, die den Gesteinen der Erde zugeschrieben werden?2. Wie lassen sich die Millionen von Jahren erklären, die den Fossilien zugeschrieben werden? Wenn es die Millionen und Abermilliarden von Jahren sind, die diesen Phänomenen zugeschrieben werden?
Richtig, dann würde der kreationistische Vorschlag eines jungen Universums nicht den geringsten Sinn ergeben, und ohne Zweifel wäre das Alter des Universums, bewertet im Lichte des vorgelegten Vorschlags, völlig ungültig.38
38 Antworten zum Thema Dating finden Sie in Kapitel 6.
94
Aurora Borealis über Bear Lake, Alaska
Foto: Joshua Strong (United States Air Force)
Es gibt jedoch Faktoren, die die Existenz des Planeten Erde und das Leben auf ihm einschränken.
Daher werden zwei abschließende Beispiele aufgrund ihrer Bedeutung untersucht. Die erste hängt mit dem Erdmagnetfeld zusammen. Der zweite hängt mit dem Mond zusammen. Beide haben Grenzen dafür, wie lange Leben auf unserem Planeten existieren kann.
Es gibt noch einige andere Faktoren, die der Wissenschaft bekannt sind und ebenfalls lebensbegrenzende Faktoren sind.
mittlere magnetische Intensität „normal
Ozeanischer Rücken
1. Das Erdmagnetfeld Das Erdmagnetfeld ist ein unsichtbarer Schutzschild, der uns schützt
Planet vor der Strahlung, die aus dem Weltraum kommt, hauptsächlich von der Sonne. Durch ihn wird der Kompasszeiger ausgerichtet; Er ist auch für die Aurora Borealis verantwortlich (siehe Abbildung oben).
Direkte Messungen des Erdmagnetfelds in den letzten 140 Jahren zeigen einen rapiden Rückgang seiner Stärke. Arzt Thomas Barnes stellte fest, dass seit 1835 durchgeführte Messungen einen Rückgang des Hauptteils des Erdmagnetfelds (des bipolaren Teils, der etwa 90 % des beobachteten Gesamtfelds ausmacht) zeigten, ein Rückgang in der Größenordnung von 5 % pro Jahrhundert.39 Archäologische Messungen zeigen dies die Intensität des Magnetfeldes um 1000 n. Chr. war etwa 40 % größer als die aktuelle Intensität.40 Dr. Barnes berechnete, dass dieses Feld nicht länger als 10.000 Jahre zerfallen konnte, da seine Stärke so groß gewesen wäre, dass die Erde nur noch eine Welt aus geschmolzenem Gestein wäre.
Einige glauben, dass es sich hierbei nicht um einen Rückgang, sondern um eine Trendwende handelt. Diese Idee geht auf die Entdeckung von Anomalien (Schwankungen) des Magnetfelds zurück, die in den Gesteinen des ozeanischen Rückens registriert wurden. statt zu sein
39 K.L. McDonald und R.H. Gunst, An Analysis of the Earth's Magnetic Field from 1835 to 1965, ESSA Technical Report, IER 46-IES 1, U.S. Government Printing Office, Washington, 1967. Siehe auch Thomas G. Barnes, Origin and Destiny of the Earth's Magnetic Field, 2. Auflage, El Cajon, Kalifornien, Institute for Creation Research, 1983.
40 R.T. Merrill und M.W. McElhinney, The Earth's Magnetic Field, London, Academic Press, 1983, S. 101-106.
A. 0 ' U !■- I V £ R :■ o 95
Richtig betrachtet wurden sie als Schwankungen der Magnetfeldstärke angesehen, fälschlicherweise jedoch als Magnetfeldumkehrungen interpretiert. Die in der Mitte der Fluktuationskurve gezeichnete Linie zeigt die durchschnittliche Intensität des Magnetfelds innerhalb der gefundenen Fluktuation und nicht ein „normales“ Magnetfeld und ein anderes in „Inversion“ (siehe Abbildung auf der vorherigen Seite). Es gibt keinen Felsen auf dem ozeanischen Rücken, bei dem die Kompassnadel nach Süden statt nach Norden zeigen würde!
Aufgrund dieser Interpretation wird deutlich, dass es in vielen Bereichen der Wissenschaft nur begrenzte Kenntnisse über die Funktionsweise des Erdmagnetfelds und die Gründe für seinen Zerfall gibt.
Der Ursprung des Erdmagnetfelds ist immer noch Gegenstand vieler Debatten. Eine der Haupttheorien geht davon aus, dass das Magnetfeld von Eisen und Nickel herrührt, die den Kern des Planeten bilden. Diese Theorie weist ein ernstes Problem auf, da oberhalb der als Curie-Punkt bezeichneten Temperatur die kleinen magnetischen Domänen aufbrechen. Der Curie-Punkt für Eisen liegt bei 750°C. In der kältesten Region des Erdkerns herrschen Temperaturen zwischen 3.400 °C und 4.700 °C. Was wäre also der Ursprung dieses Magnetfelds?
Zwei wichtige Entdeckungen könnten eine wissenschaftlich einfache und elegante Antwort liefern. Im Jahr 1820 entdeckte Hans Christian Osted (1777-1851), dass ein elektrischer Strom ein Magnetfeld erzeugt. Könnte ein elektrischer Strom die Ursache für das Erdmagnetfeld sein? Wenn ja, was wäre die Quelle dieses elektrischen Stroms?
Die Antwort sollte 11 Jahre später kommen. Im Jahr 1831 wies Michael Faraday (1791-1867) nach, dass ein nichtstatisches Magnetfeld einen elektrischen Strom induziert. Wenn die Erde zum Zeitpunkt ihrer Entstehung ein Magnetfeld erhalten würde, würde sie zerfallen, da sie keine kontinuierliche Quelle hat. Allerdings würde dieser Zerfall einen elektrischen Strom induzieren. Dieser elektrische Strom wiederum würde ebenfalls zerfallen und dabei ein Magnetfeld erzeugen. Dieses zyklische System hätte eine Zerfallsrate. James Joule entdeckte 1840, dass elektrische Energie dabei nicht verloren geht, sondern in Wärme umgewandelt wird.
Basierend auf diesen wissenschaftlichen Erkenntnissen hat Dr. Barnes machte seinen Vorschlag für den freien Zerfall des elektrischen Stroms im metallischen Kern der Erde. Dieser Vorschlag steht vollkommen im Einklang mit Beobachtungen der Zerfallsgeschwindigkeit und damit verbundenen Experimenten mit Materialien, die dem Erdkern ähneln.410 Der Zerfall ist exponentiell.
Unter Berücksichtigung aller Messungen des letzten Jahrhunderts, die die Intensität des Magnetfelds ausdrücken (International Geomagnetic Reference).
F. D. Stacey, Electrical Resistivity of (the Earth's Core, Earth and Planetary Science Letters 3:204206,1967.
Hans Christian 0rsted
Der exponentielle Abfall für einen einfachen Stromkreis beträgt
gegeben durch die Gleichung:
I (t ) = I0et/x, wobei T=URI : Strom I : Anfangsstromot : Zeit R : Widerstand L : Induktivität
Für eine Kugel mit Radius r, Leitfähigkeit O und Permeabilität |J gilt:
T = 4 o p .r27c
96
LuaF, F2
Wirkung des Mondes auf die Ozeane der Erde (Ansicht des Südpols)
-Ę5'*'*' J - ^
ICH ; > v ich .
Gezeitenschwankungen (in Zentimetern) in den Ozeanen je nach Standort.
Felddaten) ist sie stetig zurückgegangen, was eine Halbwertszeit von etwa 1.500 Jahren impliziert.
Arzt R. Humphreys zeigte, dass im Zeitraum von 1970 bis 2000 (genauere Aufzeichnungen) der bipolare Teil des Erdmagnetfelds 235 ± 5 Milliarden Megajoule Energie verlor und im nicht-bipolaren Teil 129 ± 8 Milliarden Megajoule zunahm. Der beobachtete Gesamtverlust betrug 1,41 ± 0,16 %. Bei dieser Geschwindigkeit würde das Erdmagnetfeld alle 1465+166 Jahre die Hälfte seiner Stärke verlieren.42
Das Magnetfeld der Erde lässt auf einen extrem jungen Planeten schließen, der eher Tausende als Milliarden Jahre alt ist.
zwei . Die weiteste Entfernung des Mondes Der Mond entfernt sich um etwa 3,82 (±0,07) Zentimeter pro Sekunde von der Erde
ano.43 Diese Trennung (Mondrückgang) ist das Ergebnis der Wirkung der Gravitationskräfte zwischen diesen beiden Körpern. Diese Kräfte bewirken, dass das eine das andere anzieht. Das Ergebnis ist in der nebenstehenden Abbildung zu sehen.
Die durch die Einwirkung der Schwerkraft des Mondes (Flut und Ebbe) in den Ozeanen verursachten Verformungen führen dazu, dass er sich durch eine Spiralbewegung allmählich von der Erde entfernt und die Erde sich immer langsamer um die eigene Achse dreht.
Die Kraft des Mondes auf die Erde zieht sowohl ihren „festen“ Teil als auch das Wasser der Ozeane an. Da der Durchmesser der Erde konstant ist, ist die Höhe der Gezeiten proportional zur dritten Potenz des Abstands zwischen Erde und Mond (siehe Anhang F). Die aktuelle durchschnittliche Entfernung zwischen Erde und Mond beträgt etwa 384.000 km. Wenn sich dieser Abstand verdoppeln würde, würden die Gezeiten nur noch ein Achtel des aktuellen Niveaus betragen. Würde sich der Abstand jedoch verkleinern, wären die Gezeitenpegel höher als heute. Während sich der Mond entfernt, wird deutlich, dass die Gezeiten in der Vergangenheit höher waren als die aktuellen.
Aus den Berechnungen in Anhang F können wir erkennen, dass, wenn der Mond 192.200 km von der Erde entfernt wäre (die Hälfte der aktuellen Entfernung), die Gezeiten achtmal größere Werte als die aktuellen hätten und der Tag nur eine Dauer hätte Nach zehn Stunden würde unser Kalender das Datum vor 1.199.616.330 Jahren markieren. Gezeiten mit achtmal höheren Werten als die aktuellen hätten sichtbare Spuren in den Küstenregionen unseres Planeten hinterlassen. Solche Markierungen wurden nicht erkannt. Der Planet Erde, der sich alle zehn Stunden um die eigene Achse dreht, hätte sichtbare Spuren in den Gesteinsformationen und der Rotation seines Kerns hinterlassen. Solche Markierungen wurden nicht erkannt. Wenn wir wieder reingehen
(Quelle: NASA)
42 R. Humphreys, The Earth's Magnetic Field Is Still Losing Energy, CRSQ390) 1-11, März 2002.43 J.O. Dickey et al., Lunar Laser Ranging: A Continuing Legacy of the Apollo Program, Wissenschaft,
Band 265, 22. Juli 1994, S. 486
In unserem Kalender vor 600.000.000 Jahren (dem Evolutionismus zufolge kurz vor dem Beginn des Kambriums) wäre der Mond 353.266,1 km entfernt und die Erdrotation würde 19 Stunden und 57 Minuten betragen. Es ist wichtig zu beachten, dass die in Anhang F dargestellten Berechnungen gemessene und zuverlässige Daten verwenden und dabei die gleiche Annahme berücksichtigen, die von Evolutionisten über die Beständigkeit von Phänomenen und die Konstanz von Bedingungen akzeptiert wird.
Berechnungen zeigen, dass die seltene maximale Zeitspanne, in der sich der Mond von der Erde zu entfernen beginnt, vor 1,2 Milliarden Jahren liegt! Damit dies geschieht, würde die Erde lesen, dass sie sich alle Stunden und 57 Minuten um die eigene Achse dreht! (Siehe Anhang F). Bedeutet das, dass sich der Mond vor 1,2 Milliarden Jahren von der Erde entfernt hätte? NEIN! Das bedeutet, dass es vor Milliarden von Jahren undenkbar wäre, die Vorstellung von Leben auf der Erde zu akzeptieren. Die Wirkung von Gewalt
Die Anziehungskraft des Mondes auf eine Milliarde Jahre alte Erde wäre verheerend.
U m Plan a n e t a Priv ile gia d o
Das von Jay Richards und Guillermo Gonzalez verfasste Buch mit dem Titel „The Privileged Planet: How Our Place in the Cosmos is Designed for Discovery“ zeigt, wie einzigartig und einzigartig unser Planet Erde ist.
Die Erde befindet sich am richtigen Ort in der Galaxie, im richtigen Abstand zum nächsten Stern (der Sonne) und wird von riesigen Planeten geschützt, die als Schutzschilde dienen und Kometen, Meteore und Asteroiden ins Visier nehmen. Die Erde kreist um den richtigen Stern, der weder zu heiß noch zu kalt ist. Es hat einen Mond, der zur Stabilisierung seiner Achse beiträgt und verhindert, dass das Wasser auf dem Planeten stagniert. Es verfügt über eine korrekte Umgebungstemperatur, die sich aus seiner Rotation ergibt, die die Zeit steuert, in der der Bereich der Sonne ausgesetzt ist, und die Bewegung großer Luft- und Wassermassen. Die Erde ist. Ein Planet, dessen Kruste dick genug ist, um tektonische Aktivität aufrechtzuerhalten, und der in seinem Inneren genügend Wärme liefert, um einen Eisenkern aufrechtzuerhalten.
98 T
zurückgehalten. Dies schafft die notwendigen Voraussetzungen für die Existenz eines Magnetfeldes, das Leben schützt. Es verfügt über eine Atmosphäre mit den richtigen Sauerstoffverhältnissen, die das Überleben komplexer Organismen ermöglichen. Es gibt Ozeane (flüssiges Wasser) und Kontinente, die die Existenz der Vielfalt des Lebens und das Überleben ermöglichen.
Diese und viele andere Faktoren müssen gleichzeitig am selben Ort in der Galaxie vorhanden sein, damit wir einen anderen Planeten finden können, der so vollständig ist wie der Planet Erde. Solche Faktoren sind für die Existenz komplexen Lebens und die Entwicklung von Technologie unabdingbar.
Wissenschaftler haben an Gleichungen gearbeitet, bei denen diese Faktoren gleichzeitig vorhanden sein müssen. Selbst unter der Annahme, dass nur ein Zehntel jedes dieser Faktoren gleichzeitig vorhanden wäre, wäre die gefundene Wahrscheinlichkeit so gering (1015, also eins zu einer Billiarde!), dass selbst in einer Galaxie wie unserer mit etwa zweihundert Milliarden Sternen die Die Wahrscheinlichkeit, einen anderen Planeten wie die Erde zu finden, ist praktisch Null.
Was uns diese Wahrscheinlichkeiten sagen, ist, dass es im Gegensatz zur naturalistischen Position, die besagt, dass Leben in unserer Galaxie recht leicht zu finden wäre, höchst unwahrscheinlich ist, dass wir irgendwo in unserer Galaxie einen anderen Planeten finden würden, der dies hätte notwendige Elemente für seine Existenz. Leben kann existieren.
Diese große Anzahl perfekt aufeinander abgestimmter und ausgewogener Variablen, die unserem Planeten einen einzigartigen Charakter verleihen, ist ein starker Beweis für Planung und intelligentes Design. Der Planet Erde weist alle Anzeichen dafür auf, dass er mit einem bestimmten Zweck geschaffen wurde: komplexes Leben zu unterstützen.
Blau Rot
Wasserstoffleitungen
Spektrografische Verschiebung nach Rot (Rotverschiebung): Die charakteristischen Linien des Elements Wasserstoff tendieren umso mehr in Richtung Rot, je weiter entfernt sich die Quelle befindet, die sie aussendet.
N u m Lu g a r Priv ile gia d o
Wir haben dieses Kapitel damit begonnen, darüber zu sprechen, was wir am Himmel sehen. Und wir wollen es beenden, indem wir darüber sprechen, warum wir studieren können, was wir sehen.
Wenn jemand in ein Fußballstadion geht, hat er je nachdem, wo er sitzen möchte, einen „Teilblick“ oder einen Überblick über das Spiel. Wer zum Beispiel direkt hinter einem der Tore sitzt, hat eine völlig andere Sicht als jemand, der im mittleren Bereich des Spielfeldes, an einer der höchsten Stellen, sitzt. Der zweite hätte einen Panoramablick, während der erste eine eingeschränkte Sicht hätte.
Die Erde umkreist einen Stern fünfter Größe, die Sonne. Dies ist nur einer der 200 Milliarden Sterne (ungefähre Zahl) in unserer Galaxie, die nur eine von Milliarden Galaxien im Universum ist.
Universum. Nehmen wir einen privilegierten Platz ein? Nach der Urknalltheorie lautet die Antwort nein. Es ist nicht?
Wie wir bereits gesehen haben, ist eine der Thesen der Urknalltheorie, dass es keinen bevorzugten Ort oder eine bevorzugte Richtung im Universum geben kann. Die Beweise sagen jedoch etwas anderes. Wenn Sie sich nicht mit exakten Naturwissenschaften auskennen, lassen Sie sich von Gleichungen nicht einschüchtern ... Konzentrieren Sie sich auf den Text.
Wir haben bereits erwähnt, dass einer der Vorschläge der Urknalltheorie die Expansion des Universums aufgrund des sogenannten Rotverschiebungseffekts ist. Dieser Effekt wurde von Vesto Slipher und Edwin Hubble ausführlich untersucht. Im Jahr 1929 veröffentlichte Hubble die Ergebnisse seiner Forschung (Grafik 1).
Hubble erkannte, dass es einen Zusammenhang zwischen der Länge einer Welle des X-Spektrums, ihrer Verschiebung (Verschiebung) und dem Abstand r zwischen der Erde und Himmelsobjekten (die er Nebel nannte) gab. Diese Beziehung wurde in der Form ausgedrückt:
SA, = H r ? wobei c die Lichtgeschwindigkeit ist (Gleichung 1).X c
H wurde als Hubble-Konstante bekannt. Hubble interpretierte die Verschiebung der Wellen als einen Effekt
Doppler, erzeugt ausschließlich durch die Geschwindigkeit v der lichtemittierenden Quelle. Da v viel kleiner wäre als die Lichtgeschwindigkeit c, wäre die Verschiebung der Welle ungefähr:
§ A, — Y oder v ~ H x r.X c
Es gibt jedoch noch andere Erklärungen für den Rotverschiebungseffekt. Einsteins Allgemeine Relativitätstheorie ist eine davon. Darin würden sich die Wellenlängen des Lichts zusammen mit der Ausdehnung des Mediums, durch das es sich bewegt, ausdehnen.
Derzeit glauben viele Kosmologen, dass die von Hubble und aktuellen Daten (Grafik 2) gefundene Korrelation die Ausbreitung von Lichtwellen und keinen Doppler-Effekt darstellt,44
Astronomen drücken den Grad der Rotverschiebung des Lichts normalerweise durch die Zahl z\ aus.
z = ^ (Gleichung 2)
In den 1970er Jahren beobachtete William Tifft, dass sich z-Werte in Intervallen von 0,00024 (0,024 %) gruppierten. Der Wert dieser Bereiche
99
0,004
0,0 MM^ 0,002 £ & 0 001
0,000 -0,001
0 1 2 3 4 5 6 7
1929 Entfernungen (Millionen Ughí-Jahre)
Von Edwin Hubble 1929 vorgestellte Karte,
Zeigt den Zusammenhang zwischen den Entfernungen von Galaxien und dem
spektrografische Rotverschiebung.
0,03
5 0,02 £«K0,01
0,000 100 300 MO
Entfernung {Millionen Lichtjahre)
Aktuelles Diagramm, das die Beziehung zwischen der Entfernung von zeigt
Galaxien und ihre spektrographischen Verschiebungen zum
rot [Rotverschiebung].
Verteilung der Galaxienzahl als Funktion der Rotverschiebung und
Entfernung von der Erde.
G r a f ic o 2
Grafik 1
>
XRedshift, c
- ■ Numero deGalaxias
- **Millionen Jahre
Licht JEntfernung, r
44 E.R. Harrison, Cosmology: the Science of the Universe, Cambridge University Press, Cambridge, UK, 1981, S. 245.
100
Verteilung der Anzahl der Galaxien als Funktion der Rotverschiebung und der Entfernung von der Erde, in Form konzentrischer Kreise.
2 Millionen Lichtjahre
Entfernung in Millionen lu2 Jahren
Statistisches Modell, das zeigt, wie Cluster aus verschiedenen Blickwinkeln wahrgenommen werden.
02 entsprechen einer 8v-Geschwindigkeit von etwa 72 km/s.45 1997 bestätigten William Napier und Bruce Guthrie die Beobachtungen von Tifft und stellten fest, dass „...die Rotverschiebungsverteilung in einer galaktozentrischen Referenzebene stark quantisiert wurde.“ .“46
Mit einer galaktozentrischen Referenzebene bezogen sich Napier und Guthrie auf eine vollkommen stationäre Referenzebene in Bezug auf das Zentrum unserer Galaxie.
0 was bedeutet das alles? (Siehe Anhang G) Laut Dr. Russell Humphreys, die Cluster gefunden
können als Entfernungen interpretiert werden, was impliziert, dass Galaxien konzentrisch um uns gruppiert wären und dass eine solche Struktur nicht zufällig entstanden sein kann.
Unter Verwendung der Gleichungen 1 und 2 und der schrittweisen Lösung nach r erhalten wir:
ôr = c ôz H ■
Diese Gleichung zeigt, dass die Kreise Radien mit Inkrementen ôr haben und konzentrisch sind. Da das Universum ein Zentrum hat, bedeutet dies, dass nur jemand, der ihm sehr nahe steht, es wahrnehmen würde.
Nimmt man die bekannten Werte 8p = 1,6 Millionen Lichtjahre als Funktion des Radius des Universums, beträgt die Wahrscheinlichkeit, dass wir uns durch bloßen kosmischen Zufall so nahe am Zentrum des Universums befinden, weniger als eins zu einer Billion!
In einem gigantischen, äußerst gut strukturierten Universum von unvergleichlicher Schönheit und Einfallsreichtum unterstützt ein kleiner Planet namens Erde mit perfekten Eigenschaften und perfekt ausgewogenen Variablen intelligentes Leben, das all diese kosmischen Wunder studiert und erforscht.
Alles das Ergebnis eines bloßen kosmischen Unfalls (Urknall) oder einer gezielten Schöpfung? Die Antwort liegt auf der Hand!
45 W.G. Tifft, Discrete States of Redshift and Galaxy Dynamics. I. In temal motion in single galaxies, Astrophysical Journal 206, 1976, p. 8-56.
46 W.M. Napier und B.N.G. Guthrie, Quantisierte Rotverschiebungen: ein Statusbericht, Journal of Astrophysics and Astronomy 18(4)455-463, 1997.
C A P f T U L O 4
A O r i g e m
d a VlDA:
B i o l o g i a e G e n é t i c a
„Ba s t a c c o n te m p l a r a m a g n i t u d e d e s a t a r e f a p a r a d m i t i r
O U E spontanes Alter von m or g a n i s m i n p o s s i v e .
DR George Wald
„Q u a n t o m a i s a um m e n t a o n o s so c o n h e c i m e n o ,
m a i s e v i d e n t e f i c a a n o s s a i g n o r â n c i a "
P r e s . John F. Kennedy
104
Was weiß man über den Ursprung des Lebens?
Was ist der Ursprung des Lebens? Wie kam es dazu, dass anorganische (leblose) Substanzen Leben hervorbrachten? Was hätte die Mechanismen hervorgebracht, die die Reproduktion der ersten Lebensformen ermöglichten?
Mit diesen Fragen begann das NOVA-Programm am 3. Mai 2004 mit der Befragung von Dr. Andrew Knoll, weltbekannter Evolutionist, Paläontologe und Professor für Biologie an der Harvard University. Er ist Autor des Buches „Life on a Young Planet: The First Three Billion Years of Life“. Arzt Knoll gilt als einer der Menschen, die sich am ausführlichsten mit der Entstehung des Lebens befasst haben.
Sie wären zweifellos überrascht, wenn Dr. Knoll antwortete auf die oben genannten Fragen: „Die Antwort ist, dass wir nicht wirklich wissen, wie das Leben auf diesem Planeten entstanden ist.“1 Denn genau das war die Antwort, die er gab.
Vielleicht fragen Sie sich jetzt: Aber ist die Spontanzeugung noch nicht bewiesen? Gibt es nicht Beweise dafür, wie das Leben entstanden ist und sich von einfachen zu komplexen Formen entwickelt hat? Ist die natürliche Auslese nicht der Mechanismus, der die Evolution beweist? Sind Fossilien nicht ein Beweis dafür, dass sich das Leben über Milliarden von Jahren bis heute entwickelt hat?
Zur Überraschung vieler sagte Dr. am Ende des Interviews: Knoll machte außerdem drei sehr wichtige Aussagen, die das aktuelle naturalistische Wissen über den Ursprung des Lebens auf einfache Weise zusammenfassen: „Wir wissen nicht, wie das Leben auf diesem Planeten begann. Wir wissen nicht genau, wann es angefangen hat, wir wissen nicht, unter welchen Umständen.“
NOVA fragt dann Dr. Knoll: „Werden wir das Problem jemals lösen?“ Noch einmal Dr. Knoll antwortet: „Ich weiß es nicht. Ich stelle mir vor, dass meine Enkelkinder immer noch herumsitzen und sagen, dass dies [der Ursprung des Lebens] ein großes Geheimnis ist.“
Dies ist die aktuelle Situation der naturalistischen wissenschaftlichen Erkenntnisse über den Ursprung des Lebens, obwohl die Lehre von der spontanen Entstehung des Lebens von vielen als erwiesene Tatsache und durch zahlreiche Beweise untermauert dargestellt wird und Teil einer wissenschaftlichen Theorie ist, die über jede Widerlegung erhaben ist . . Daher der Grund für eine vergleichende Studie zwischen den Vorschlägen der naturalistischen Theorie und der kreationistischen Theorie, wobei die Gesetze und die Beweise, die behaupten, sie zu stützen, als Grundlage dienen und derselbe Fragestandard angewendet wird.
1 Das Transkript dieses Programms finden Sie unter folgender Adresse: wwwpbs. org/wgbh/nova/origins/knoll.html
A 0 105
Ev o l u ç ã o e a O r ig e m d a V i d a
Wie bereits in der Einleitung erwähnt, geht die auf der naturalistischen Kosmovision basierende Evolutionstheorie davon aus, dass das Leben spontan durch natürliche Prozesse entstanden ist und dass alle heute vorkommenden Lebensformen ihren Ursprung in einer primitiven Form hatten, also in allen Formen des Lebens haben einen gemeinsamen Vorfahren.
Die Evolutionstheorie wurde a priori, also ohne Kenntnis der Realität, formuliert. Auch heute noch sucht die naturalistische Theorie nach den notwendigen Beweisen, um ihre Thesen zu belegen. Bevor wir uns also mit der Schöpfungstheorie befassen, wollen wir kurz einige der Herausforderungen besprechen, mit denen die Evolutionstheorie konfrontiert ist.
In diesem Kapitel befassen wir uns ausschließlich mit den Herausforderungen der Evolution in den Bereichen Biologie und Genetik. Im fünften Kapitel befassen sie sich mit Herausforderungen der Paläontologie und im sechsten Kapitel mit solchen im Zusammenhang mit der Chronologie. Eine erste Herausforderung für die naturalistische Theorie besteht darin, die Gültigkeit des als Abiogenese bekannten Konzepts nachzuweisen. Abiogenese ist kein wissenschaftliches Gesetz, sondern eine These, dass Leben auf natürliche und spontane Weise aus anorganischer Materie und ohne jeglichen Aspekt der Intentionalität entstanden wäre.
Die Bedeutung dieser Herausforderung liegt in der Opposition eines wissenschaftlichen Gesetzes. Louis Pasteur, ein bekannter französischer Wissenschaftler des 19. Jahrhunderts, zeigte, dass Mikroorganismen nicht durch spontane Erzeugung aus organischen Substanzen entstehen. Pasteur formulierte eine grundlegende Tatsache, die die organische Welt von der anorganischen Mineralwelt unterscheidet. Modern ausgedrückt besagt diese Tatsache, dass asymmetrische (organische) Moleküle immer das Ergebnis von Lebenskräften sind. Diese Arbeit von Pasteur war die Grundlage für die Formulierung des Gesetzes, das heute in der Biologie als Gesetz der Biogenese bekannt ist. Dieses Gesetz besagt, dass Leben Leben erzeugt.
Wie lässt sich erklären, dass „Nicht-Leben“ Leben hervorgebracht hätte? Im Jahr 1924 veröffentlichte Aleksandr Ivanovich Oparin, ein russischer Biochemiker, eine Arbeit über Abiogenese, in der er die Möglichkeit der spontanen Entstehung von Leben durch anorganische chemische Substanzen theoretisch nachweisen wollte.2 Er glaubte, dass sich die Bedingungen auf der Urerde von den heutigen unterschieden, was darauf hindeutet dass die frühen Ozeane eine „Urbrühe“ mit vielen organischen Verbindungen waren, die entstanden, als Sonnenlicht noch eine Energiequelle war) mit chemischen Elementen im Wasser interagiert haben. Diese organischen Verbindungen hätten die Grundlage des Lebens gebildet. Sie dann
Louis Pasteur (1822-1895)
Urgesetz der Biologie (Gesetz der Biogenese)
Vita ex vita Leben erzeugt Leben.
2 Dieses ursprünglich auf Russisch verfasste Werk wurde 1936 übersetzt und dann auf Englisch unter dem Titel „The Origin of Life on Earth“ veröffentlicht.
106
Stanley Miller mit seinem präbiotischen Modellversuch
nh3 ch, h2o h2
hätten sich verbunden und seien immer komplexer geworden, bis sich lebende Zellen gebildet hätten.
1953 veröffentlichte ein amerikanischer Chemiker und Biologe namens Stanley Miller die Ergebnisse seiner Forschung unter dem Titel „Produktion von Aminosäuren unter möglichen Bedingungen einer Erde mit einfachen Eigenschaften“.3 Hier wurde das sogenannte präbiotische Modell geboren.
Basierend auf Oparins Vorschlägen und den Arbeiten seines Beraters Harold Urey simulierte Miller durch ein Experiment eine angeblich primitive Atmosphäre, die Methan enthielt
(CH4), Ammoniak (NH3), molekularer Wasserstoff (H2) und Wasserdampf (H20). In dem nebenstehend abgebildeten Apparat bildete sich, nachdem eine elektrische Entladung mehrere Tage lang auf das Gasgemisch eingewirkt hatte, das denen der angeblich ursprünglichen Atmosphäre entsprach, ein dunkel gefärbtes Gemisch, in dem er die Existenz einiger Gase nachweisen konnte Aminosäuren unter anderem.
Millers Analyse zeigte das Überwiegen von Monocarbonsäuren (Ameisensäure – HCO2H, Propionsäure – CH3CH2C02H, Essigsäure – CH3C02H und andere).
Derzeit ist nicht bekannt, warum die Anzahl der Aminosäuren in Zellen auf 20 begrenzt ist, die als proteinogene Aminosäuren bezeichnet werden. Von allen von Miller durchgeführten Experimenten wurden nur 13 der proteinogenen Aminosäuren gebildet, die in Lebewesen vorkommen (Glycin, Alanin, Glutaminsäure, Asparagin und andere), obwohl auch viele andere Aminosäuren gebildet wurden, die in Lebewesen nicht vorkommen gebildet. Es ist wichtig zu beachten, dass in den Experimenten mit der Miller-Technik die grundlegenden proteinogenen Aminosäuren (Arginin, Lysin und Histidin), die für die Bildung von RNA und DNA notwendig sind, nicht gebildet wurden.
Miller entwickelte seine Forschung aus einem erwarteten Ergebnis (Aminosäuren). Als Kohlenstoffquelle nutzte er Methangas (CH4) anstelle von Kohlendioxid (CO2). Der Grund dafür ist, dass C02 eine resistente Bindung (oxidierte Bindung) hat, deren Reaktion eine große Energiemenge erfordert, wodurch auch Kohlenstoff nicht für den Aufbau der komplexen Moleküle verfügbar wäre, die für die Entstehung von Leben notwendig sind.
3 Stanley L. Miller, A Production ofAmino Adds under Mögliche Primitive Earth Conditions, Science117, 1953, 528-29. Outra puEÏÏcaçào vor einigen Jahren, Produktion einiger organischer Verbindungen unter möglichen primitiven Erdbedingungen, Journal of the American Chemical Society 77, 1955,2351-61.
Von Stanley Miller verwendetes Gerät
107
Miller folgte dem von Oparin vorgeschlagenen Gedankengang und zählte Sauerstoff (02) nicht zu den Elementen der angeblich primitiven Atmosphäre. Aus einem sehr wichtigen Grund bestünde der nächste Schritt darin, das Auftreten von Proteinen nachzuweisen.
Proteine sind lange Ketten von Aminosäuren, die als Polypeptide bekannt sind. Sie wirken im Zellstoffwechsel. Diese Ketten entstehen durch den Kondensationsprozess. Nach der Interpretation von Millers Erfahrung wäre die Bildung von Aminosäuren ein Beweis für die spontane Entstehung von Leben, da die langen Ketten von Aminosäuren (Polypeptiden), aus denen Proteine und anschließend RNA und DNA entstehen würden, nur benötigt würden Zeit und Zufall.
Mit dieser Interpretation sind jedoch zwei entscheidende Probleme verbunden, wenn man davon ausgeht, dass lange Ketten von Aminosäuren spontan entstehen würden. Die erste bezieht sich auf das chemische Gleichgewicht der Reaktion bei der Bildung von Peptiden (Gruppierung von Aminosäuren). Chemische Reaktionen haben eine Vorzugsrichtung, d. h. eine natürliche Tendenz, dass sie ablaufen. Eine Möglichkeit wäre, dass sich zwei Aminosäuren rekombinieren und so ein Dipeptid entsteht. Diese chemische Reaktion wird als Kondensationsreaktion bezeichnet und könnte eine Erklärung dafür sein, wie Proteine entstanden sind. Die andere mögliche Richtung dieser Reaktion wäre, dass das Dipeptid durch eine als Hydrolyse bekannte Reaktion in zwei Aminosäuren zerfällt. Dies würde dem Vorschlag des spontanen Auftretens von Proteinen widersprechen.
Das zweite Problem ist die bevorzugte (natürliche) Richtung der chemischen Reaktion der Peptide. Peptide zerfallen spontan in Aminosäuren, nicht umgekehrt (die Kombination von Aminosäuren, die Peptide bilden), wie von der naturalistischen Theorie vorgeschlagen wurde.4
Es ist auch wichtig anzumerken, dass seit Miller bis heute viele andere Experimente durchgeführt wurden, um zu zeigen, dass der naturalistische Vorschlag eine empirische wissenschaftliche Grundlage hat.
Das Ergebnis all dieser Bemühungen zeigt etwas, das im Widerspruch zu dem steht, was man denkt. Klaus Dose sagt zum Abschluss der 7. Internationalen Konferenz über den Ursprung des Lebens im Juli 1983 in Mainz: „Eine Frage bleibt immer noch offen, nämlich nach dem Ursprung biologischer Informationen, also der Informationen, die existieren.“ in unseren Genen heute... Die spontane Bildung einfacher Nukleotide oder sogar Polynukleotide, die in einer präbiotischen Erde stattgefunden hätte, muss nun als Situation betrachtet werden
4 Eine vollständige Beschreibung des Problems der Bildung von Aminosäureketten finden Sie im Buch Evolution – a Critical Text Book von Reínhard Junger und Siegfried Scherer, Teil IV, Kapitel 8, herausgegeben von Sociedade Criacionista Brasileira, wo die Vorschläge für chemische Evolution werden ausführlich besprochen.
Klaus Dose, Präsident des Instituts für Biochemie der Johannes Gutenberg-Universität:
„Mehr als 30 Jahre Experimente zum Ursprung des Lebens auf dem Gebiet der chemischen und molekularen Evolution haben zu einer besseren Wahrnehmung der Unermesslichkeit des Problems des Ursprungs des Lebens auf der Erde geführt, anstatt zu einer Lösung zu führen. Diskussionen darüber.“ Die wichtigsten Theorien und Erfahrungen auf diesem Gebiet enden entweder in einer Sackgasse oder in einem Eingeständnis der Unwissenheit.“
Klaus Dose, „Der Ursprung des Lebens: Mehr Fragen als Antworten“, Interdisciplinary Science Reviews, Bd. 13, Nr. 4, 1988, S. 348.
108
unwahrscheinlich, angesichts der vielen erfolglosen Experimente... Eine große Zahl von Wissenschaftlern hat erstmals eindeutig Folgendes festgestellt: Es gibt keine empirische Grundlage für die evolutionären Thesen, die behaupten, dass sich lebende Systeme aus Polynukleotiden entwickelt haben, die spontan entstanden.“5
Das zweite Problem betrifft die Unmöglichkeit, in einer bestimmten Situation Proteine zu bilden. Aminosäuren rekombinieren in Gegenwart von Sauerstoff(02) nicht zu Proteinen. Ohne Proteine wäre die Bildung komplexer lebensnotwendiger Moleküle wie RNA und DNA nicht möglich.
Anhand der evolutionären Datierungsskala selbst kam man zu dem Schluss, dass die ursprüngliche Biosphäre bereits mehr als 300 Millionen Jahre lang über Sauerstoff verfügte, bevor die ersten Bakterienfossilien entstanden. Eisenoxid wurde in kontinuierlichen horizontalen Schichten über Hunderte von Kilometern gefunden.6 Sauerstoff verhindert die Bildung von Proteinen.
Arzt Abelson, Entdecker des transuranischen Elements Neptunium, fragt: „Was ist der Beweis für eine frühe Atmosphäre, die Methan und Ammoniak enthielt?“ Die Antwort lautet: Es gibt keine Beweise dafür, aber es gibt viele Beweise dagegen.“7 Paul Davies, ein bekannter Physiker, Kosmologe, Astrobiologe und Agnostiker, glaubt, dass die heutigen Wissenschaftler der Lösung der Frage nach dem Ursprung keinen Schritt näher gekommen sind des Lebens, als die Wissenschaftler der 1950er Jahre.
Solange es keine Möglichkeit gibt, zu beweisen, dass das Konzept der Abiogenese durch wissenschaftliche Experimente nachgewiesen werden kann, wird die naturalistische Evolutionstheorie ohne eine wissenschaftliche Grundlage zur Erklärung einer möglichen spontanen Entstehung des Lebens fortbestehen.
Im Allgemeinen werden diese Punkte und ihre Auswirkungen in der Evolutionsliteratur nicht behandelt. Es wird zugegeben, dass das Leben spontan entstand. Empirisch gibt es jedoch keine Belege.
D a r w in e a Ev o l u ç ã o
Im gesamten 20. Jahrhundert war die darwinistische Theorie im Allgemeinen die
5 Klaus Dose, Die Ursprünge des Lebens, Tagungsberich über den ISSOL- Kongreß in Mainz, 1983; Nach. Chem.Techn. Lab. 31,1983, p. 968-969.
6 Philip Morrison, Earth's Earlyiest Biosphere, Scientific American, Bd. 250, April 1984, S. 30-31. Vertambem Charles F. Davidson, Geochemical Aspects of Atmospheric Evolution, Proceedings of the National Academy of Sciences, Bd. 53,15 Dejunhode 1965, S. 1194-1205.
Charles Darwin 7 Philip H. Abelson, Chemical Events on the Primitive Earth, Proceedings of the National Academy of Sciences, Bd. 55, Juni 1966, S. 1365.
8 Paul Davies, The Fifth Miracle: The Search for the Origin and Meaning of Life, New York, Simon & Schuster, 1999, S. 17.
109
Es wird nur Theorie gelehrt, dass sie in der Lage sei, die Entstehung der vielen bekannten Lebensformen auf unserem Planeten zu erklären.
Im Jahr 859 veröffentlichte Charles Darvvin ein Buch mit dem Titel „The Origin of Species“. Darin befasste sich Darvvin nicht mit der Entstehung des Lebens, sondern versuchte, eine wissenschaftliche Grundlage für die naturalistische Theorie zu liefern, die die Evolution des Lebens erklärte. Mit dieser Veröffentlichung wurde die sogenannte Evolutionstheorie durch natürliche Selektion geboren; ein Vorschlag, die Komplexität der Vielfalt der Lebewesen durch adaptive Prozesse zu erklären. Kurz gesagt, die Theorie der Evolution der Arten versucht zu sagen, was passiert ist, und Darvvin versucht mit der natürlichen Selektion zu erklären, wie dies geschehen wäre (der Hauptmechanismus).
Darvvin trug eine Reihe bekannter Fakten seiner Zeit zusammen, um die Theorie der natürlichen Auslese zu stützen. Dies geschah durch die Interpretation von Beweisen und Argumenten aus vier Forschungsbereichen: Biogeographie, Paläontologie, Embryologie und Morphologie.9
Sowohl Darwins Logik als auch seine Argumentation basierten auf den begrenzten wissenschaftlichen Erkenntnissen der damaligen Zeit. Für ihn waren Zellen beispielsweise nur undifferenziertes Protoplasma, entgegen dem aktuellen Wissen über die irreduzibel komplexen Strukturen einer Zelle. Solche Strukturen erfordern die gleichzeitige Zusammenarbeit von Millionen präzise sequenzierter und angepasster Nukleotide, um zu funktionieren und ein System kleiner molekularer Maschinen zu bilden, die mit mehreren funktionell integrierten und präzise koordinierten Teilen ausgestattet sind.
Diese Grenzen von Darwins Wissen über die Komplexität des Lebens zeigen sich in den vielen Erklärungen, die er anbot, insbesondere in der Evolution der Organe. Als Darwin beispielsweise die Entwicklung des menschlichen Auges erklärte, hatte er keine Ahnung von der Existenz von mehr als 400.000 Fotosensoren pro Quadratmillimeter in der Netzhaut. Komplexität, die kein aktueller Evolutionsmechanismus erklären kann, wie sie entstanden wäre. Daher bestand eine weitere große Herausforderung für den Darwinismus darin, die Mechanismen aufzuzeigen, durch die sich Lebensformen entwickeln oder entwickelt haben, und Beweise für die Wirkungsweise dieser Mechanismen zu liefern.
Die Annahme, dass natürliche Prozesse die enorme Komplexität und Vielfalt von Lebensformen hervorbringen und sich aus einem gemeinsamen Vorfahren entwickelt haben, muss noch bewiesen werden (ein Beispiel hierfür sind zufällige Mutationen ohne Zweck oder Ziel wie diese). die in Kürbissen vorkommen). Mal sehen.
Beginnen wir mit Darwins Vorschlag in Bezug auf das Studium der em-
Kürbis
Normal
Mutant
9 David Quammen, Darwin Was Wrong1, National Geographic Brazil, Jahr 5, Ausgabe 55, November 2004, S. 44-45.
110 C o 1
Wenn! ICH? 4 | i Hallo u i {li 1 Wenn ich krank bin - -I* iIII si! si -ill Sts si -gl i l l si sll
® . ( 3 1 I I <1 *1 9 $ 9 t l ?
~£ I u I M H 0 3 9 ' S M
Teamarbeit von Dr. Richardson und seine
Mitarbeiter, veröffentlicht 1998 in der Zeitschrift
Wissenschaft 280, p. 983-986, über die Embryonalentwicklung, Annullierung der
argumentierte Ernst Haeckel.
„Ontogenese wäre das
kurze und schnelle Zusammenfassung
der Phylogenese.
Zeichnungen von Ernst Haeckel, die Embryonen von Wirbeltieren darstellen.
Bryologie, Morphologie und Genealogie der Arten (Phylogenie). Für Darwin sind die Embryonen mehrerer und unterschiedlicher Arten vorhanden
Es gibt unerklärliche Ähnlichkeitsmuster. Seiner Meinung nach durchläuft der Embryo eines Säugetiers Stadien, die denen des Embryos eines Reptils sehr ähnlich sind. Aufgrund dieser Beobachtungen gelangte Darwin zu dem Schluss, dass „der Embryo das Tier in seinem am wenigsten differenzierten Zustand ist … und die Struktur seines Elternteils offenbart.“10
Ernst Haeckel, deutscher Naturforscher und Philosoph, schuf Ende des 19. Jahrhunderts mit seiner bekannten Bilderfolge, die die angebliche Entwicklung verschiedener Lebensformen in einer Embryonalperiode zeigt, die Grundlage für die rasche Akzeptanz der Darwinschen Theorie. Haeckel versuchte, die sogenannten ontogenetischen Thesen zu beweisen.
Sowohl für Darwin als auch für Haeckel war die Entwicklungssequenz eines Embryos (Ontogenese) die Wiederholung der „Evolutionsgeschichte“ dieser Art (Phylogenese), mit anderen Worten, Ontogenese wäre die Wiederholung der Phylogenese.11
Mittlerweile hat jedoch eine Vielzahl von Forschern gezeigt, dass der vermeintliche Beweis ein großer Fehler war.12 Dr. Richardson and Collaborators, das oben auf dieser Seite erscheint, veranschaulicht diesen Punkt (vergleiche Haeckels Illustrationen an der Seite).
Haeckel selbst schrieb in der „Berliner Volkszeitung“ vom 29. Dezember 1908: „... Ich möchte zunächst mit Bedauern gestehen, dass ein kleiner Teil meiner zahlreichen Embryonenfotos tatsächlich gefälscht ist – ich meine alle, bei denen das Material in
10 Ebd., S. 48.11 Charles Darwin, Brief an Asa Gray, 10. September 1860, in Francis Darwin (Herausgeber), The
Leben und Briefe von Charles Darwin, Bd. II, New York, D. Appleton und Co., 1986, S. 131.12 M. K. Richardson et al., Es gibt kein hochkonserviertes Embryonalstadium in den Wirbeln:
Implikationen für aktuelle Evolutions- und Entwicklungstheorien, Anatomy & Embryology, Band 196, 1997, S. 91 -106. Siehe auch J. Wells, Haeckel's Embryos and Evolution:Setting the Record Straight, The American Biology Teacher 61, Mai 1999, p. 345-349, Elizabeth Pennisi, Haeckel's Embryos: Fraud Rediscovered, Science, 277, 5. September 1997, S. 1435, e ainda S. J. Gould, Abscheulich! (Abscheulich!), Natural History, März 2000, S. 42-49.
A 0 I V 111
„Die bestehende Beobachtung ist so unvollständig oder unzureichend, dass wir zur Herstellung einer zusammenhängenden Entwicklungskette gezwungen sind, die Lücken durch Hypothesen zu schließen.“
Die wissenschaftliche Gemeinschaft zu Haeckels Zeit basierte auf seinem Vorschlag einer angeblichen Ähnlichkeit von Embryonen in ihren weniger entwickelten Stadien und denen sowohl terrestrischer als auch aquatischer Lebensformen. Infolgedessen behaupteten sie, die nötigen Beweise gefunden zu haben, um die Evolution des Lebens in der traditionellen Reihenfolge zu beweisen: primitives Meeresleben, Fische, Amphibien, Reptilien, Vögel und Säugetiere.
Die Studien an Embryonen in weniger entwickelten Stadien und die vergleichenden Studien von DNA und RNA zwischen den Lebensformen der traditionellen Sequenz, die von der Evolutionstheorie präsentiert werden, zeigen, dass diese Lebensformen keinerlei Anzeichen eines genetischen Übergangs aufweisen und sich isoliert bilden Gruppen. Daher fehlen dem von Charles Darwin, A. R. Wallace, Em st Haeckel und anderen vorgeschlagenen Stammbaum der Arten immer noch die notwendigen Beweise für einen seiner wichtigsten Teile: die Wurzel!
Arzt Hubert P. Yockey sagte Folgendes: „Der Ursprung der Lebensforschung scheint in dem Sinne einzigartig zu sein, dass die Schlussfolgerung maßgeblich akzeptiert wurde ... Was bleibt, ist, die Szenarien zu finden, die die Mechanismen und Prozesse, durch die das Leben entstehen würde, im Detail beschreiben.“ ist passiert. Man könnte zu dem Schluss kommen, dass im Gegensatz zum etablierten und aktuellen Wissen, das den Ursprung des Lebens auf der Erde durch Zufall und natürliche Ursachen beschreibt, die eher auf Fakten als auf Glauben basieren, bisher keine detaillierten Beschreibungen gegeben wurden.“14
Ev o l u ç ã o e a O r ig e m d a B io d i v e r i d a d e
Wenn wir die Artenvielfalt betrachten, stehen wir zunächst vor dem Problem, Lebensformen zu klassifizieren und zu organisieren. Wie kann man sie kohärent und konsistent klassifizieren und organisieren? Was genau ist mit „Arten“ gemeint, wenn man von der Evolution der Arten spricht?
Obwohl große Anstrengungen unternommen werden, ein für alle Organismen geeignetes und allgemein akzeptiertes Artenkonzept zu etablieren, ist dieses Ziel noch nicht erreicht. Der bekannteste Klassifizierungsvorschlag stammt aus einem der Bereiche der Biologie, der Taxonomie.
Begriffe wie „morphologische Art“ (bezogen auf die Form von Organismen), „genetische Art“ (bezogen auf biologische Kreuzung)
13 Reinhard Junger und Siegfried Scherer, Evolution – ein kritisches Lehrbuch, Brasilianische Kreationistische Gesellschaft, Brasília, 2002, S. 179.
14 H. P. Yockey, Eine Berechnung der Wahrscheinlichkeit spontaner Biogenese durch Informationstheorie, Journal of Theoretical Biology, 67:377-398,1977; Seitenzahl: 379.396.
NelkeRibeirinho
Geumrivale
Nelke Urban
Geumurbanum
112
Höchstalter
Der Begriff MIKROEVOLUTION wird in diesem Buch nicht als angeblicher Begriff verwendet
evolutionärer Mechanismus, sondern als gebräuchlicher Begriff zur Beschreibung von Variationen
vorhandenes genetisches Material.
und „Grundtyp“ (bezogen auf morphologische und genetische Merkmale) zielen darauf ab, der Klassifizierung und Organisation der vielen Lebensformen eine spezifischere Bedeutung zu geben.15
Trotz der Definitionen und Klassifizierungsmethoden gibt es immer noch viele Beispiele für die Einschränkungen dieser Definitionen und dieser Methoden, wie die folgenden Beispiele zeigen.
Im Pflanzenreich gibt es die Flussnelke (Geum rivale) und die Stadtnelke (Geum urbanum), die als zwei genetische Arten, aber als eine morphologische Art betrachtet werden (Abbildung auf der vorherigen Seite). Im Tierreich gibt es den Grünspecht (Picus viridis) und den Grauspecht (Picus canus), die als zwei morphologische Arten gelten, aber genetisch dieselben Arten sind (Abbildung auf der Seite).
Diese Beispiele veranschaulichen die Schwierigkeiten, die selbst auf den elementarsten Ebenen bei der Erlangung eines kohärenten und konsistenten Klassifizierungssystems für Lebensformen auftreten. Dies hat tiefgreifende Auswirkungen auf den Vorschlag der darwinistischen Theorie, denn bevor bestätigt werden kann, dass sich eine Art „x“ aus einer Art „y“ entwickelt hat, muss bewiesen werden, dass es sich sowohl um die Art „x“ als auch um die Art „y“ handelt nicht nur Variationen desselben Grundtyps.
Es ist daher notwendig, den Unterschied zwischen sich weiterentwickeln und diversifizieren (Variationen) zu klären. Dieser Unterschied zeigt sich in zwei Konzepten, die zur Definition von Divergenzen verwendet werden:
Mikroevolution: Rekombination von vorhandenem genetischem Material
Makroevolution: Verbesserung des vorhandenen genetischen Materials
Beispiele für Mikroevolution wären Variationen in der Hautfarbe oder Augenfarbe oder sogar in der Größe eines Blattes oder in der Farbe eines Blütenblatts. Mikroevolution wäre daher nur die Neukombination von genetischem Material, das immer vorhanden war, im Sinne bereits vorhandener Merkmale und Organisationen.
Makroevolution wäre die Summe aller Variationen, die angeblich beispielsweise Landsäugetiere (Antilopen) in Wassersäugetiere (Wale) verwandelt haben.16 Es wäre die Entstehung qualitativ hochwertigen genetischen Materials.
15 Eine ausführliche Beschreibung des Artenkonzepts, des Grundtyps und anderer Alternativen zur Klassifizierung der Biodiversität finden Sie im Buch „Evolution – ein kritisches Lehrbuch“ von Reinhard Junger und Siegfried Scherer, Teil II, Kapitel 3, herausgegeben von der Sociedade Criacionista Brasileira.
16 David Quammen, Was Darwin Wrong?, National Geographic Brazil, Jahr 5, Ausgabe 255, November 2004, S. 66-67. Dieses besondere Beispiel wird als Beweis für die Evolution angeführt. Die Widerlegung des Beispiels findet sich in Kapitel 5 dieses Buches.
A O r i g e m of L i f e
MAKROEVOLUTION
aktiv neuartig (genetische Verbesserung oder Anagenese). Mikroevolution wird auch oft als infrastrukturelle Evolution beschrieben.
Arten (innerhalb derselben Art), während Makroevolution als transspezifische Evolution (über die Artgrenze hinaus) beschrieben wird.
Wenn es in der Evolutionstheorie um die Veränderung des genetischen Materials geht, ist die evolutionäre Einheit nicht das Individuum, sondern die Population. Mit anderen Worten: Die Evolution findet in der Gruppe von Individuen statt, die als Genpool bezeichnet wird. Dieser Evolutionsvorschlag erhielt den Namen „Synthetische Evolutionstheorie“ (da er mehrere Evolutionsprozesse in einem einzigen Vorschlag zusammenfasst).
Ihrer Meinung nach hätte eine Gruppe von Individuen die Repräsentation des gesamten genetischen Materials, also sowohl der Gene als auch der verschiedenen Formen desselben Gens (Allele). Wenn Mutationen auf den Genpool einwirken, wird dieser bereichert. Durch Rekombinationen würden neue Konfigurationen innerhalb der Population entstehen. Schließlich würden durch die Selektion einige Allele abnehmen, während andere zunehmen würden.
Diese Faktoren, Mutation, Rekombination und Selektion, werden als Erklärungen für die möglichen Variationen in Organismen verwendet. Es ist wichtig zu beachten, dass dieser Variationsprozess in Organismen möglich ist, aber er ist bei weitem kein Beweis für die Teilung einer Art in zwei oder mehr Arten (Zerstückelung).17
Diese Aufspaltung einer Art in zwei oder mehr wird als Artbildung bezeichnet. Es setzt den Prozess der Trennung (geografische Trennung der Populationen) und den Prozess der Isolation (genetische Isolation oder das Fehlen fruchtbarer Paarung) voraus.
Kehren wir nun zu den praktischen Ergebnissen zurück, die die Gültigkeit des evolutionären Vorschlags hinsichtlich des Ursprungs und der Ursachen der Artenvielfalt unseres Planeten bestimmen könnten. Innerhalb der Grenzen der Bedeutung des Begriffs Art ist die Artbildung ein empirisch nachgewiesener und im Laufe der Geschichte gut dokumentierter Prozess. Die Portugiesen brachten beispielsweise Hauskaninchen auf die Insel Porto Santo vor der Westküste des Kontinents.
17 Es gibt seltene Fälle störender Selektion und den Sonderfall der Artbildung durch Verdoppelung oder sogar Vermehrung des sogenannten genetischen Erbes (Polyploidie). Obwohl diese Fälle auf der Insel Porto Santoraros existieren, werden sie nicht als natürliche Prozesse betrachtet. (Madeira-Archipel)
Felidae-Familie
Artbildung
Aufeinanderfolgende Mehrfachteilungen von a
Spezies
*Verarmung
genetisch
Reduzierung der Variabilität
Weniger Flexibilität in
bei Umgebungsschwankungen
♦ Größeres Risiko von
Aussterben
Afrikaner im fünfzehnten Jahrhundert. Aus Hauskaninchen ist eine Gruppe Wildkaninchen hervorgegangen. Elemente dieser Gruppe von Wildkaninchen gehen keine fruchtbaren Paarungen mit den Hauskaninchen ein, von denen sie abstammen. Die wild gewordenen Arten gelten als neue biologische Art. Dieser Prozess hängt mit der genetischen Isolation zusammen.
Können wir dies als Hinweis auf den Beginn eines makroevolutionären Prozesses (genetische Verbesserung) betrachten? Welche möglichen beobachtbaren und bewerteten Folgen hätte eine Spaltung (oft als Auseinanderbrechen bezeichnet) von Arten? Zusammenfassend: Was passiert im Prozess der Artbildung?
Wenn eine neue „Art“ entsteht, wird der Genpool erschöpft. Diese Verarmung setzt sich bei jeder neuen Art oder „Rasse“ fort, die entsteht. Am Anfang würde es zu mehreren Teilungen derselben Art kommen, was zu einer Verarmung des Genpools führen würde, was direkt zu einer Verringerung der Variabilität führen würde. Mit anderen Worten: Je höher der Grad der Anpassung, desto geringer die Anzahl der Variationen; und je geringer der Anpassungsgrad, desto größer die Anzahl der Variationen.
Wir können sehen, dass der Prozess der Mikroevolution wissenschaftlich und beobachtbar ist. Es gibt Variationen im genetischen Material. Allerdings folgt diese Variation dem Verlauf der genetischen Verarmung der Bevölkerung. Dieses beobachtete Ergebnis steht im Widerspruch zu dem, was die von Darwin vorgeschlagene Evolutionstheorie beschreibt, denn je geringer die Möglichkeit einer Anpassung, desto größer das Risiko des Aussterbens. Einfach ausgedrückt geht die natürliche Tendenz der Artbildung in Richtung Aussterben.
Andererseits sehen wir, dass der Prozess der Makroevolution nicht wissenschaftlich ist und nicht als Ergebnis mehrerer Mikroevolutionen betrachtet werden kann, wenn man bedenkt, dass es durch die Artbildung zu einer Verarmung des genetischen Materials und nicht zu einer Verbesserung (oder Entstehung eines neuen genetischen Materials) kommt ). Daher kann die Artbildung durch solche Prozesse nicht als evolutionärer Beweis für die biologische Vielfalt und die in der Vielfalt vorhandene Komplexität angesehen werden.
Wir beobachten, dass die Artbildung durch Mikroevolution eine Klärung des Mechanismus für eine begrenzte und beobachtbare Anpassung bei Lebewesen bietet. Unter begrenzter Anpassung versteht man die bereits vorhandene genetische Belastung für das Auftreten einer adaptiven Variation. Nach derzeitigem Kenntnisstand wird eine solche Variation nicht auftreten, wenn kein bereits vorhandenes genetisches Material vorhanden ist. Welcher Prozess oder welche Prozesse könnten also eine Variation hervorrufen, die über die begrenzte Anpassung hinausgeht, die der genetische Code vorschreibt?
Mutationen wurden als Beweis für die Makroevolution angeführt, da sie die Hauptursache für das Auftreten von genetischem Material sind, das sich vom Original unterscheidet.18
18 Theodosius Dobzhansky, On Methods of Evolutionary Biology and Antropology, AmericanScientist, Winter, Dezember 1957, S. 385.
Ein 0 * ! u i M HA V ■ :; A 115
Da sie nicht dauerhaft im Genpool einer Art vorhanden sind, werden schädliche Mutationen von der Evolution nicht als Beweis für die Theorie herangezogen und somit durch die natürliche Selektion selbst eliminiert.
Nach empirischen Erkenntnissen über spontan in der Natur auftretende Mutationen treten sie erst im Prozess der Mikroevolution (innerhalb einer bereits bestehenden Struktur) auf. Es gibt mehrere Beispiele, die fälschlicherweise versuchen, die Ursache der Makroevolution auf Mutationen zurückzuführen. Schauen wir uns einige an.
Seit Jahren wird gelehrt, dass sich a-Hämoglobin A durch verschiedene Mutationen in (3-Hämoglobin A) verändert hat. Wissenschaftler sagen, dass hierfür 120 Punktmutationen nötig wären. Dr. George Wald sagte über seine Forschung: „ ... Es bedurfte keiner großen Anstrengung meinerseits, um herauszufinden, dass die bekannte Veränderung einer einzelnen Aminosäure bei der Hämoglobinmutation die Funktion dieses Hämoglobins nicht ernsthaft beeinträchtigte.“19
Ein weiteres Beispiel, das Mutationen als Beweis für einen „Evolutionssprung“ nutzen will, ist die angebliche Evolution der Haie. Aufgrund einiger Ähnlichkeiten gelten Neunaugen als die richtige Form, aus der sich Haie entwickelt hätten. Die Idee dieser vermeintlichen Evolution kommt vor allem von der großen Anzahl an Zähnen, die diese beiden Tiere haben. Neunaugen haben ein spitz zulaufendes Maul mit spitzen Zähnen, die in konzentrischen Kreisen angeordnet sind (siehe nebenstehende Abbildung). Auch seine Zunge ist mit Zähnen bedeckt. Haie hingegen haben Zähne, die nicht am Kiefer befestigt sind. Dadurch wechseln sie jährlich etwa 1.800 Zähne.
Der anatomische Abstand zwischen den beiden Organismen ist sehr groß, und Evolutionsforschern zufolge würde es etwa 70 Millionen Jahre dauern, bis sich die Veränderungen für eine solche Transformation festigen. Im Fossilienbestand gibt es keinen einzigen Beweis dafür, dass eine Transformation stattgefunden hat.20
Als Beleg für einen makroevolutionären Mechanismus werden sogenannte positive Mutationen präsentiert. Einige Beispiele sind blinde Fische (Verlust des Sehvermögens) und flügellose Insekten (Verlust der Flugfähigkeit). Diese Beispiele stellen die Eliminierung von Körperteilen oder -funktionen aus diesen Organismen dar. Solche Beweise tragen nicht dazu bei, die Makroevolution zu bestätigen, da der „Vorteil“, den diese Lebewesen erlangt haben, auf einem Verlust und nicht auf einem Gewinn beruht.
' 9 George Wald, Mathematical Challenges to the Darwinian Interpretation of Evolution, Herausgeber Paul S. Moorhead und Martin M. Kaplan, Symposiumspublikation am Wistar Institute of Anatomy and Biology, 25.–26. April 1966, Philadelphia, The Wistar Institute Press , 1967, S. 18-19.
23 Philip Donoghue und Mark Purnell, Genome Duplication, Extinction and Vertebrade Evolution, Trends in Ecology and Evolution, Bd. 20, Ausgabe 6, Juni 2005, S. 312-319.
Neunauge
116 c 0 m 0 T L H O C g und nein o li
Mutationen
Genetische oder Punktmutationen:
• Still – verschiedene Tripletts, die dieselbe Aminosäure kodieren (Degeneration des genetischen Codes).
• Neutral – Ersatz einer Aminosäure ohne Änderung der Funktion.
• Anpassung – 1,2,4 oder eine andere Basiszahl, die nicht durch 3 teilbar ist, wird angepasst oder gelöscht. Die Folge ist der Verlust genetischer Informationen.
• Übergang – ein Purin (A oder G) und ein Pyrimidin (C oder T) werden auf eine andere Base desselben chemischen Typs übertragen.
• Umwandlung – ein Purin wird von einem anderen Raum in ein Pyrimidin übertragen.
Chromosomenmutationen:
• Deletion – Verlust eines DNA-Segments.
• Insertion – Einfügen eines DNA-Segments.
• Inversion – 180° Drehung in Richtung des DNA-Segments.
• Translokation – Positionsänderung eines DNA-Abschnitts, der von einem Teil des Chromosoms zu einem anderen übertragen wird.
• Duplikation – Wiederholung desselben Gens entlang des Chromosoms
DR. Lynn Margulis, Fachbereich Biologie an der University of Massachusetts und Fellow der US National Academy of Science, sagte: „Ich habe keine Beweise dafür gefunden, dass diese [evolutionären] Transformationen durch die Anhäufung allmählicher Veränderungen stattfinden können.“21
Warum können Mutationen nicht die Ursache der Makroevolution sein? Denn Mutationen verändern zwar den genetischen Code, kodieren aber weder neue Strukturen und Funktionen noch schaffen sie neue genetische Informationen. Sie selektieren, eliminieren, duplizieren, tauschen oder kombinieren nur genetische Informationen, die bereits vorhanden sind.22
Darüber hinaus weist eine vermeintliche darwinistische Evolution eine Einschränkung auf, die mit Mutationen zusammenhängt. Eine Studie zur erhöhten bakteriellen Resistenz zeigte, dass von 120 möglichen Mutationswegen 102 der von Darwin vorgeschlagenen natürlichen Selektion nicht zugänglich sind und die verbleibende Mehrheit eine äußerst geringe (vernachlässigbare) Eintrittswahrscheinlichkeit aufweist.23
Mutationen stellen ein Hindernis für die Evolution dar und sind kein Beweis für sie, was deutlich macht, dass:
(Mikroevolution) + (Zeit) ^ (Makroevolution)
Die beiden anderen mit Mutationen verbundenen Ideen beinhalten Rekombination und Selektion unter natürlichen Bedingungen. Rekombination spielt eine wichtige Rolle in mikroevolutionären Prozessen. Im Grunde handelt es sich um die Mischung von genetischem Material, die kein neues Element in den Code einführt.
Natürliche Selektion impliziert, wie der Begriff schon sagt, die Erhaltung oder Eliminierung und schafft auch kein neues genetisches Material. Beide manipulieren lediglich vorhandenes genetisches Material und können dem genetischen Code nichts Neues hinzufügen.
Kleine Variationen, die durch den vorhandenen genetischen Code als Funktion der Umwelt gesteuert werden (Mikroevolution), können nicht als „Beweis“ der Evolution (Makroevolution) verwendet werden.24
Arzt Soren Lovtrup fasst dieses Problem zusammen, indem er sagt: „Es gibt mehrere Gründe für die Ablehnung von Darwins Vorschlag, aber der erste ist, dass es viele gibt.“
21 Zitiert von Charles Mann, kein Artikel Lynn Margulis: Science Unruly Earth Mother, Science, Bd. 252.19 April 1991, S. 379.
22 Lee M. Spetner, Not by Chance, Shattering the Modern Theory of Evolution, Judaica Pr, 1998.23 Daniel M. Weinreich, Nigel F. Delaney, Mark a. DePristo und Daniel L. Hartl, Darv/mian Evolution Can
Fo//owOn/ylteryFew/Wufaf/ona/Paf/7sfofitíerProfe/ns/Science,Vol.312,N0577C),2006,S. 111-114.24 Robert Wesson, Beyond Natural Selection, MIT Press, Cambridge, MA, 1991, S. 206. Ver também
Saren Lövtrup, Darwinism: The Refutation of a Myth, Croom Helm Ltd., Beckingham, Kent, 1987, S. 422.
v I 117
Innovationen könnten nicht durch die Anhäufung kleiner Schritte entstehen, und selbst wenn dies möglich wäre, würde die natürliche Selektion dies nicht ermöglichen, da Früh- oder Zwischenstadien nicht vorteilhaft sind.“
Daher ist die Schaffung neuer Arten durch Züchtung, oft als evolutionärer Beweis bezeichnet, nichts anderes als die Rekombination bereits vorhandenen genetischen Materials. Schauen Sie sich als Beispiel für die „Schöpfung neuer Arten“ die mehr als 400 Variationen von Hunden innerhalb der Gattung Canis Familiaris an. Bei allen handelt es sich lediglich um Variationen eines bereits vorhandenen und bekannten genetischen Materials.
Es ist unmöglich zu behaupten, dass die Evolution durch eine große Anzahl von Mutationen eine bewiesene Tatsache sei, da dies ohne fundierte wissenschaftliche Grundlage als wahr anerkannt werden müsste. Bis heute existiert diese Datenbank nicht. Es würde bedeuten, dass es akzeptiert wird, in der Hoffnung, dass es eines Tages bewiesen wird, und nicht in aktuellen wissenschaftlichen Beweisen, die es bereits durch die vorgeschlagenen darwinistischen Evolutionsprozesse bestätigen.
Eine allmähliche Wirkung zufälliger Mutationen plus natürlicher Selektion unter Verwendung automatischer, blinder und unbewusster Mechanismen kann nicht als Ursache für die Entstehung vieler Lebensformen angesehen werden, von den einfachsten bis zu den spezialisiertesten.
Obwohl Befürworter der darwinistischen Theorie viele Erklärungen angeboten haben, bleibt die entscheidende Frage unbeantwortet: Woher kam das ursprüngliche genetische Material? Dies hat die Evolutionstheorie noch nicht bewiesen.26
Unabhängig von der Wahrscheinlichkeit haben die langjährigen Forschungen zum Ursprung des Lebens in den Bereichen chemische Evolution, Molekularbiologie und Genetik zu einem besseren Verständnis des Ausmaßes des Problems des Ursprungs des Lebens auf der Erde geführt. Diese Studien zeigten, dass die ursprünglich bewertete Komplexität des Lebens im Vergleich zur heute bekannten Komplexität eine enorme Vereinfachung darstellte. Dieses Wissen hat mehr Fragen als Antworten zur Evolutionstheorie aufgeworfen.27
Evolution und die in der DNA enthaltenen Informationen Bisher haben wir die kleineren Herausforderungen erwähnt, denen sich die Evolutionstheorie gegenübersieht
Gesichter in seinem naturalistischen Vorschlag. Wir beschäftigen uns nun mit dem Größten von allem: dem Ursprung der im genetischen Code enthaltenen Informationen.
25 Ebd., S. 275.26 James Perloff, Tornado in a Junk Yard: The Relentless Myth of Darwinism, Refuge Books,
1999, S. 63-64.27 Klaus Dose, Der Ursprung des Lebens: Mehr Fragen als Antworten, Interdisziplinäre Wissenschaftsübersicht,
Bd. 13, Nr. 4, 1988, S. 348.
Canidae-Familie
Ein selektiver Vorteil entsteht nur in einem Entwicklungsstadium
abgeschlossen: Zwischenstufen
(„unvollständig“) haben keinen Wert
biologisch, durch die beseitigt werden
Leistung der stabilisierenden Selektion.
118 C .. M C o y í
Amöbe
A la A G C U . G C C, G C A, G O G Leu L IftJA, U JG. CtJU. C U C, C U A, OJ G
Ein ig R GGU. C G C C G A C G G A G A, A G G L von K AAA, A AG
A in N AAU, A A C Met M AUG
Asp O GAU . G A C P fK F UUU. U J C
Cy I C UGU, U G C Pro P C C U . C C C , C C A , C C G
f!ln O C A Ä .C A G S oder S UCU. «JCC. U CA, U C G , A G U .A G C
G lu E G A A . G A G T h r T A C U . A C C . A C A . ACG
G ly G G GU . G G C . G G A , G G G T rp W UGG
Hallo! H CAU, C A C T y r Y UAU. UAC
Ich wüsste es nicht. A U C. AUA V «l V GUU. G U C . G U A, G U C
S tm f AUG S bis p UAG. UGA, UAA
Liste der 20 proteinogenen Aminosäuren
Betrachten wir das Problem zunächst aus statistischer Sicht. Wenn uns gesagt wird, dass etwas passiert ist, nutzen wir rational und intuitiv die Wahrscheinlichkeitsmathematik, um das Ereignis zu bewerten. Schauen wir uns zur Veranschaulichung an, wie wahrscheinlich es ist, dass bestimmte Ereignisse im Zusammenhang mit dem Leben spontan eintreten.
Die Wahrscheinlichkeit, dass ein funktionelles Protein mit 100 sequenzierten Aminosäuren spontan auftritt, beträgt 1 zu 10127, also die Zahl 1 gefolgt von 127 Nullen!
Die Wahrscheinlichkeit, dass sich eine einzelne tierische Zelle spontan bildet, beträgt 1 zu 1057-800, also die Zahl 1 gefolgt von 57.800 Nullen!
Die Wahrscheinlichkeit, dass ein Mensch spontan auftaucht, beträgt 1 in io 2 00üüü0()0ü, also die Zahl 1 plus 2 Milliarden Nullen hintereinanderF
Interessanterweise sagen Wissenschaftler, dass eine Möglichkeit im Jahr 1015 (die Zahl 1 gefolgt von 15 weiteren Nullen) eine „praktische Unmöglichkeit“ darstellt.29 Nur Visualisierung. Der in der DNA einer einzelnen Amöbe enthaltene genetische Code enthält genug Informationen, um eine ganze Encyclopedia Britannica mehr als 1.000 Mal zu füllen.30 Stellen Sie sich die Wahrscheinlichkeit vor, dass tausend Encyclopedias Britannica „auftauchen“ würden, indem Sie einfach zufällige Buchstaben über ihre Seiten werfen! Welchen Inhalt hätte es? Wäre es hilfreich?
Kehren wir nun zur Frage der Genetik zurück. Wenn wir vom genetischen Code sprechen, beziehen wir uns auf etwas zutiefst Komplexes. Den Aspekt der im genetischen Code enthaltenen Informationen haben wir bereits in Kapitel 1 behandelt. Schauen wir uns nun weitere Aspekte an.
Der in der DNA (Desoxyribonukleinsäure) enthaltene genetische Code besteht nur aus vier genetischen Buchstaben, den sogenannten Nukleotiden, die sich paaren, weil sie komplementär sind: Adenin (A) mit Thymin (T) und Guanin (G) mit Cytosin (C).
Drei benachbarte Nukleotidpaare bilden ein Codon (Tripletts), das eine einzelne Aminosäure kodiert. Daher gibt es 43 = 64 verschiedene mögliche Kombinationen von Codons. Asparagin (Asn), eine von zwanzig kodierten Aminosäuren, hat sowohl die AAU- als auch die AAC-Form (wobei in der RNA Thymin (T) durch Uracil (U) ersetzt wird.
Wenn wir hier aufhören würden, wäre die Komplexität bereits immens. Diese Komplexität ist jedoch nicht nur immens, sondern auch funktional. eine Sequenz
28
29
30
Carl Sagan, F. H. C. Crick, L. M. Muchin, Communication and Extraterrestrial Intelligence (CETI) von Carl Sagan, Hrsg. Cambridge, MA, MIT Press, S. 45-46.JacqueVallée und Joseph A. Hynek, The Edge of Reality: A Progress Report on Unidentified Flying Objects, Chicago, Henry Regenery, 1975, S. 45-46. 157. Wendell R. Bird, The Origin of Species Revisited: The Theories of Evolution and of Abrupt -Appearance, Thomas Nelson Inc., Nashville, TN; Reimpressão, 1991, Band 1, S. 72
A 0 H I G E M [' A v I ' • A 119
Der Teil der DNA wird durch mRNA (Messenger-RNA) in eine Sequenz von Aminosäuren übersetzt. Jede so produzierte Aminosäure wird von einer tRNA (Transfer-RNA) transportiert und in eine durch die in der DNA enthaltene Information vorgegebene Aminosäuresequenz eingefügt, wodurch ein Protein entsteht. Dies geschieht im Inneren einer Stoffwechselanlage, hochkomplex, extrem klein, Ribosom genannt.
Diese gebildeten Proteine erledigen in einer Zelle fast alles außer der Speicherung genetischer Informationen. In einer einzelnen Zelle gibt es Tausende von Proteinen, von denen jedes eine spezifische Funktion hat, die sich aus seiner dreidimensionalen Strukturform ergibt. Diese Proteine passen perfekt zu anderen vorhandenen Molekülen in Zellen und setzen Energie frei, während andere durch die Agglomeration mehrerer Proteine oder eines einzelnen Proteinmoleküls funktionelle Strukturen der Zelle selbst bilden.
Es liegt daher ein hoher Grad an Komplexität in Form kodierter und übersetzter Informationen vor. Diese Komplexität ist nicht nur funktional, sondern zeigt sich auch im hohen Grad an Architektur von Proteinstrukturen.
Stellen Sie sich zur Veranschaulichung Aminosäuren als Buchstaben und Proteine als Wörter vor. Es konnte eine große Anzahl von „Wörtern“ gebildet werden. Aber diese Zahl wäre nicht unendlich, denn die Bildung von Wörtern hängt von Regeln ab, damit sie einen Sinn ergeben. Schauen Sie sich zum Beispiel die Buchstabenfolge an:
Wie begann das Leben?
Damit diese Sequenz einen Sinn ergibt, müssen bestimmte Regeln der portugiesischen Sprache eingehalten werden, andernfalls ...
OAVCD OA EMM OOU ICÇ?
... wäre nur eine Ansammlung von Buchstaben! Ein einzelnes Protein ist also keine zufällige Reihenfolge von
Aminosäuren. Sie muss auch bestimmte Regeln befolgen. Hierbei handelt es sich um eine bestimmte Reihenfolge der Aminosäuren, die durch den genetischen Code vorgegeben ist. Wenn die Reihenfolge der Aminosäuren korrekt ist, falten sie sich zu einer vorprogrammierten Struktur und bilden ein dreidimensionales Protein, das eine bestimmte Funktion erfüllt.
Wenn die Abfolge der Aminosäuren nicht korrekt ist, wird diese Abfolge nicht gefaltet und ein Protein gebildet, sondern abgebaut und in der Zelle zerstört. Eine unvorstellbare Anzahl solcher Ereignisse finden derzeit in den Zellen aller Lebewesen auf der Erde statt, von den einfachsten bis zu den komplexesten. Angesichts solch komplexer Strukturform der DNA
Architektur und Ingenieurwesen, Fragen zu den geschaffenen Bauwerken
Strukturform von RNAt
120 c < o T U O O C O !v1 E ç
durch den genetischen Code sind für das Verständnis der Funktionsmechanismen einer Zelle von großer Bedeutung.
Es gibt jedoch viel wichtigere Fragen, die direkte Auswirkungen auf den Ursprung des Lebens haben: Woher stammen die in diesem Code enthaltenen Informationen, die eine solche Komplexität erzeugen können? Woher kamen die Informationen, die die Aminosäuren in die richtige Reihenfolge brachten, um Proteine zu bilden? Woher kamen die Informationen, die dazu führten, dass sich Proteine falteten und die komplexen dreidimensionalen Strukturen bildeten, die man in Zellen findet?
Eine mögliche und vernünftige Erklärung für diese Fragen würde auch den Ursprung des Lebens und der Artenvielfalt, die wir um uns herum finden, sehr genau beschreiben.
Entwurf eines antiken amerikanischen Tisches
Entwurf eines modernen Hauses
SCHÖPFUNG N ISM: WISSENSCHAFT UND NICHT RELIGION
Die Biologie bietet die vollständigste, am besten beobachtbare und überprüfbare Reihe von Experimenten zur Erklärung des Lebens: seinen Ursprung und seine Erhaltung. Allerdings sind Biologie und Evolution nicht gleichbedeutend. Sowohl der Kreationismus als auch der Evolutionismus präsentieren Formulierungen und Interpretationen für die Biologie.
Eine Formulierung wird, wie bereits gesehen, als wissenschaftliche Methode bezeichnet, wenn beobachtbare, empirische und messbare Beweise, die den Gesetzen des Denkens unterliegen, mit dem Ziel untersucht werden, neues Wissen zu erlangen oder sogar vorhandenes Wissen zu korrigieren oder zu integrieren.
Die Vorschläge der kreationistischen Biologie folgen strikt dieser Methode und basieren darüber hinaus auf den Gesetzen der Biologie selbst, der Genetik und anderen Bereichen wissenschaftlicher Erkenntnisse. Der Kreationismus geht davon aus, dass das Leben in Form von Grundtypen gleichzeitig vollständig, komplex, mit grundlegender Vielfalt und begrenzter Anpassungsfähigkeit geschaffen wurde.
Wie im vorherigen Abschnitt gezeigt, weist das Leben ein hohes Maß an Komplexität und Einfallsreichtum auf. Diese Merkmale, die in einer „einfachen“ Zelle zu finden sind, offenbaren Anzeichen von Intelligenz und intelligentem Design.
Viele Wissenschaftler wie Richard Dawkins und Francis Crick haben das Argument der absichtlichen Gestaltung (Planung) zurückgewiesen, da sie der Ansicht sind, dass die in der Natur vorkommende Komplexität den Anschein einer absichtlichen Gestaltung erweckt.31 Für sie und viele andere Wissenschaftler ist Design ein grundlegend metaphysisches Konzept und die a von vornherein, also wissenschaftlich fehlerhaft.
Aber diese Analyse des Kreationismus ist nicht korrekt. „Im Gegensatz dazu erfolgt die Planungsschlussfolgerung rein a posteriori und basiert auf einem Antrag
31 Richard Dawkins, The Blind Watchmaker, [1986], Penguim, London, 1991, S. 6 e Francis Crick, What Mad Pursuit: A Personal View of Scientific Discovery, Basic Books, 1988.
A 0 I V 121
unaufhaltsam im Einklang mit Logik und Analogie. Die Schlussfolgerung mag religiöse Implikationen haben, aber sie hängt nicht von religiösen Voraussetzungen ab.“32
C r i c io n ist m o e a O r ig e m d a V id a
In den 1970er Jahren versuchten Dean H. Kenyon und Gary Steinman in ihrem Buch „Biochemical Predestination“, die vorherrschende Strömung des naturalistischen Gedankens theoretisch zu demonstrieren, dass das Leben biochemisch durch die attraktiven Eigenschaften prädestiniert sei, die zwischen seinen chemischen Teilen, hauptsächlich zwischen Aminosäuren, bestehen Proteine.33 Dieser Vorschlag, der mehr als zwanzig Jahre lang eine der zentralen Formen des naturalistischen Denkens über die Entstehung des Lebens blieb, wurde nach dem Verständnis der DNA verworfen.
Die naturalistische Antwort war angesichts der Komplexität der DNA überholt, eines Moleküls, dessen Eigenschaften und Existenz nicht durch natürliche Prozesse erklärt werden können und das selbst der Träger aller Informationen ist, die Komplexität erzeugen.
Arzt Kenyon hat sich zu einem der führenden Forscher und Verfechter der Intelligent Design Theory entwickelt. Was hat Sie dazu gebracht, Ihre Meinung über den Ursprung des Lebens zu ändern? Das Design im Leben selbst gefunden!
Wenn wir uns mit dem Ursprung des Lebens befassen, müssen wir den Ursprung der Komplexität berücksichtigen, die es darstellt. Zu sagen, dass eine anfängliche Einfachheit durch zufällige Prozesse und lange Zeiträume kleine Informationszuwächse erhalten hat, um die aktuelle Komplexität hervorzubringen, stellt kein wissenschaftliches Argument dar. Dies liegt daran, dass Prozesse, die Komplexität erzeugen, quantitativ bewertet werden können. Wenn wir uns mit der kreationistischen Position befassen, müssen wir daher noch einmal zu den Grundlagen der Wissenschaft zurückkehren, um die Fragen im Zusammenhang mit dem Ursprung des Lebens angemessen zu beantworten.
War es möglich, dass zufällige molekulare Wechselwirkungen Leben hervorbrachten? War es möglich, dass zufällige molekulare Wechselwirkungen ohne jeden Zweck oder jede Richtung einst das Grundmaterial hervorgebracht hatten, das nach einer langen Zeitspanne und Prozessen, die ebenfalls ohne jeden Zweck oder jede Richtung waren, die Komplexität des Lebens hervorbrachte? Wie wir gesehen haben, gibt es viele, die das glauben.
Eine adäquate Antwort kann jedoch als wissenschaftlich angesehen werden.
32 Michael Denton, Evolution, A Theory in Crisis, Bethesda, MD, Adler und Adler, 1986,341.33 Veröffentlichter Buchtext von Dean H. Kenyon und Gary Steinman, Biochemical Predestination,
McGraw-Hill-Text, 1969.
nur, wenn sie innerhalb bestimmter Parameter liegt, die von den Gesetzen und Regeln der Wissenschaft akzeptiert werden, und nicht von den Standards der Antwort selbst. Wenn also der Naturalismus nicht die Antwort auf den Ursprung des Lebens ist, muss es offensichtlich eine kreationistische Erklärung geben, die diese rationale und wissenschaftliche Grundlage für die Komplexität des Lebens formuliert.
Wir haben bereits in den vorherigen Abschnitten gesehen, dass die naturalistische Antwort keinen adäquaten wissenschaftlichen Vorschlag bietet. Es ist nicht unsere Absicht zu sagen, dass es sich nicht um einen logischen Vorschlag handelt, sondern dass seine Logik nicht korrekt ist (wir haben bereits in Kapitel 1 gesehen, dass nicht alle logischen Überlegungen korrekt sind). Der kreationistische Vorschlag für den Ursprung des Lebens basiert hauptsächlich auf der Wissenschaft der Wahrscheinlichkeit. Damit etwas passiert, muss eine vernünftige Wahrscheinlichkeit bestehen, die innerhalb bestimmter Parameter akzeptiert wird.
Kommen wir zurück zur Frage der Wahrscheinlichkeiten. Was wäre eine vernünftige Obergrenze für die Anzahl der Moleküle, die sich während seines Lebens irgendwo im Universum gebildet haben könnten (unter der Annahme des naturalistischen Alters von 13,7 Milliarden Jahren)?
Dies wäre gleichbedeutend mit der Berechnung der Wahrscheinlichkeit, im Lotto zu gewinnen. Die Gesamtzahl der Kombinationen im Lotto entspricht angeblich der Anzahl der Proteine, die sich möglicherweise aus den kleinen gemusterten Bausteinen bilden könnten. Das Gewinnerlos würde der kleinen Gruppe solcher Proteine entsprechen, die die richtigen besonderen Eigenschaften aufweisen, aus denen ein lebender Organismus (z. B. ein einfaches Bakterium) gebildet werden könnte.
Beginnen wir mit der Anzahl der Atome im Universum, denn Leben besteht aus bekannter Materie (Atomen). Die akzeptierte Anzahl von Atomen im Universum liegt in der Größenordnung von 108u (die Zahl eins gefolgt von 80 Nullen).34 Wir müssen nun zwei weitere Faktoren definieren: die Zeit vom Anfang bis heute und die Anzahl der atomaren Wechselwirkungen pro Sekunde pro Sekunde Atom.
Die Zeit von 13,7 Milliarden Jahren würde 4,32 x 1017 Sekunden entsprechen. Runden wir es auf 1018 auf (was etwa 30 Milliarden Jahren entsprechen würde – mehr als dem Doppelten des derzeit akzeptierten Alters).
Für die Anzahl der atomaren Wechselwirkungen pro Sekunde und Atom gehen wir von 1012 aus, was ein äußerst großzügiger Wert ist und auch den kinetischen Anteil chemischer Reaktionen einschließt. Nehmen wir außerdem an, dass jede atomare Wechselwirkung immer ein Molekül hervorbringt. Daher würde 108üx l0 18x l0 12 uns die Anzahl von 10110 einzigartigen Molekülen liefern, die sich seit Beginn des Universums bis heute gebildet haben (bei einem Alter von 30 Milliarden Jahren).
34 M. Fugika, C.J. Hogan und P. J.E. Peebles, The Cosmic Baryon Budget, Astrophysical Journal, 503, 1998, p. 518-530. Siehe auch C.W. Allen, Astrophysical Quantities, 3. Auflage, University of London, Athlone Press, 1973, S. 293.
123
Stellen wir uns vor, dass für die Entstehung der einfachsten Form primitiven Lebens 1.000 Proteine benötigt würden, von denen sich bereits 999 gebildet hätten. Daher müssten wir nur das tausendste Protein mit der richtigen Aminosäuresequenz finden. Begrenzen wir die Anzahl der benötigten Aminosäuren auf 20, da diese Menge in Lebewesen vorkommt. Diese 20 erscheinen in rechten und linken Formen (rechtsdrehend und linksdrehend), und nur diejenigen mit Linkssymmetrie kommen in der Konstitution des Lebens vor. Lassen wir auch diese Tatsache außer Acht und gehen wir von nur 20 Aminosäuren aus.
Darüber hinaus ignorieren wir die Tatsache, dass die chemische Reaktion, die an der Bildung langer Peptidketten beteiligt ist, in einer nicht lebenden (anorganischen) chemischen Umgebung äußerst unwahrscheinlich ist. Unser Ziel besteht daher lediglich darin, eine Aminosäuresequenz zu erhalten, die eine dreidimensionale Proteinstruktur mit möglichst geringem Funktionalitätswert ergibt.
Mehrere Arbeiten theoretischen Ursprungs, die jedoch auf detaillierten experimentellen Fakten basieren, weisen darauf hin, dass etwa 50 % der Gruppe der Aminosäuren ein korrekt spezifiziertes Protein mit korrekter Reihenfolge sein muss.35
Wenn wir ein Protein mit 200 Aminosäuren betrachten, wäre die Anzahl der Zufallsversuche 20100 oder 1013ü (1,268 x 10130). Wir bedenken, dass von den 200 Aminosäuren nur die Hälfte, nämlich 50 %, in der richtigen Reihenfolge vorliegen müssen. Vergleichen Sie diesen Wert, 10130, mit der maximalen Anzahl an Wechselwirkungen seit Beginn des Universums bis heute, 10110 (unter der Annahme, dass das Universum 30 Milliarden Jahre alt ist und nicht 13,7 Milliarden).
Diese Analyse zeigt, dass jeder Versuch (wie logisch er auch sein mag), einen Mechanismus der spontanen Entstehung des Lebens zu erklären, nachweisen muss, dass er aus statistischer Sicht rational akzeptabel ist.36 Selbst wenn man die Annahmen eher gleich macht Obwohl sie den Naturalismus befürworten, zeigen Statistiken die Unmöglichkeit.
Mit anderen Worten: Wie wäre es innerhalb einer wissenschaftlichen Logik möglich, ein Ereignis zu akzeptieren, bei dem eine spontane Generation stattgefunden hat? Die Chancen stehen dagegen! (Sehen Sie sich in Kapitel 1 noch einmal die beiden Theorien an, die sich mit dem Aussehen eines Schokoladenkuchens befassen.)
Da die Wahrscheinlichkeit einer spontanen Generation aus statistischer Sicht nicht besteht, wird der kreationistische Vorschlag noch deutlicher. Wenn etwas nicht auf natürliche Weise geschehen kann, liegt es daran, dass es geschaffen wurde. Das Argument ist einfach und unkompliziert.
35 Hubert P. Yokey, A Calculation of the Probability of Spontaneous Biogenesis by Information Theory, Journal of Theorical Biology, 67, 1978, S. 377-398.
36 Diese Berechnungen erschienen in der Veröffentlichung von Fred Hoyle und N.C. Wickramasinghe, Evolution from Space, J.M. Dent, London, 1981.
124
Kodifizierte Struktursprache
Englisch:................. 1.4064Deutsch:................1.6335Esperanto:...... ..... 1.8950Arabisch:...................2.1036Griechisch:................. 2.1053Japanisch:... ........... 2,1564Russisch:.................2,2295Lateinisch:...... ......... ....2.3927Türkisch: ...................2.4588
Eine der großen biologischen Entdeckungen des 20. Jahrhunderts war, dass lebende Organismen das Ergebnis verschlüsselter Sprachstrukturen sind. Alle Details der strukturellen und chemischen Komplexität, die mit dem Stoffwechsel, der Reparatur, den speziellen Funktionen und der Reproduktion jeder lebenden Zelle verbunden sind, resultieren aus einem verschlüsselten Algorithmus, der in der DNA gespeichert ist. Dieser Aspekt ist für das Verständnis des Ursprungs des Lebens von immenser Bedeutung.
Wie konnte eine so äußerst komplexe, stark strukturierte und überraschend umfangreiche Sprache entstehen?
Die Entdeckung des Ursprungs dieser Komplexität ist zweifellos der zentrale Aspekt der Frage nach dem Ursprung des Lebens. Das einfachste Bakterium hat ein Genom, das Millionen von Codons enthält. Jedes Codon (das einem genetischen Wort entspricht) besteht aus drei Buchstaben des genetischen Alphabets.
Ist es möglich, dass ein Algorithmus mit einer Länge von Millionen codierter Wörter spontan durch einen bekannten naturalistischen Prozess entsteht? Gibt es physikalische Gesetze, die darauf schließen lassen, dass solche Strukturen spontan entstehen können? Aus thermodynamischer und informationstheoretischer Sicht ist die Antwort ein klares Nein!
In der Informationstheorie, in Studien zur statistischen Analyse von Sprache, kann Entropie durch den Durchschnitt des Informationsgehalts dargestellt werden. Die Differenz zwischen dem maximalen und minimalen Entropiewert, also die Differenz zwischen dem maximalen Informationsgehalt und dem durchschnittlichen Informationsgehalt, wird Redundanz genannt.
Diese Berechnung des durchschnittlichen Informationsgehalts pro Silbe einer bestimmten Sprache, die beispielsweise von der Menschheit verwendet wird, spezifiziert statistisch einige Merkmale dieser Sprache. Wenn diese statistischen Werte verglichen werden (auch ohne Angaben zur Grammatik zu machen), liefern sie relevante Informationen über einige grundlegende Merkmale jeder Sprache.
Beispielsweise können wir den Informationsgehalt eines einzelnen Symbols in einer Sequenz mithilfe der Gleichung 37 mitteln
N •Im edw = 1 total / n = X />(*,-) X lo §2 0
ich= 1
Dabei ist I der Informationsgehalt, n die Gesamtzahl der Symbole, N die Gesamtzahl der verfügbaren Symbole und p(x) die Wahrscheinlichkeit des Symbols x. erscheinen nacheinander.
37 tstes cálculos aparecem no livro do Prof. Dr. Werner Gin, In the Beginning Was Information, Christliche Literatur-Verbreitung e.V., 1997, p. 170-205.
125
Durch die Auswertung der Silbenzahl pro Wort und des durchschnittlichen Informationsgehalts ist es möglich, den durchschnittlichen Informationsgehalt pro Silbe einer bestimmten Sprache zu berechnen. In der Tabelle auf der gegenüberliegenden Seite haben wir diese Werte für einige Sprachen. Die gleiche Analyse des genetischen Codes offenbart eindrucksvolle Aspekte der Komplexität des Lebens.
Eine Escherichia coli (Bakterienzelle) wiegt etwa 1013 g und ist etwa 14 Uhr lang. Wenn alles ausgestreckt ist, ist Ihre DNA etwa 1 mm groß. Es enthält durchschnittlich 4 Millionen Nukleotide (genetische Buchstaben). Statistische Informationen über bakterielle DNA sind die Anzahl der Informationsbits:
/ = (4 x 106 Nukleotide) x (2 Bits/Nukleotid) = 8 x 106 Bits.
Eine Zellteilung dauert etwa 20 Minuten und die Buchstabenerkennungsgeschwindigkeit ist etwa tausendmal schneller. Das bedeutet, dass die Lesegeschwindigkeit des genetischen Codes in Bakterien in der Größenordnung von liegt:
(8 x 106 Bit) x 1000/(20 x 60) = 6,67 x 106 Bit/Sekunde!
Die Argumentation, die die Realisierbarkeit eines naturalistischen Modells demonstrieren soll, das die Ursache für das Erscheinen einer solchen „Maschine“ (mit einer solchen Funktionsfähigkeit) mit einer Anhäufung kleiner Zufallsereignisse in Verbindung bringt, steht offensichtlich vor einer gewaltigen Aufgabe! Ein Großteil der naturalistischen Biologie versucht jedoch, über die Umgebung zu sprechen, in der die Informationen enthalten sind, und nicht über den Ursprung der Informationen selbst.
Kehren wir zum Beispiel der Lotterie zurück. Wenn Sie das Gewinnerlos hätten, würden Sie die Nachricht erhalten, dass der Preis für Sie verfügbar ist. Der Inhalt der Nachricht, dass Sie der große Gewinner sind, wäre unabhängig vom verwendeten Medium (Fax, Telefon, E-Mail, Fernsehen usw.). Das Medium ist wichtig, steht aber nicht an erster Stelle. Die Botschaft, die in den in der DNA kodierten Informationen enthalten ist, ist am wichtigsten.
Albert Einstein verwies auf diesen Aspekt der Natur und Herkunft symbolischer Informationen als eine der tiefgreifendsten Fragen der Welt, wie wir sie kennen. In seinen Worten stellen symbolische Informationen eine Realität dar, die sich von der Realität von Materie und Energie unterscheidet. Diese Trennung zwischen Materie und bedeutungsvollen Symbolen wurde in der Linguistik als „Einsteins Abgrund“ bekannt.38
Symbolische Informationen sind ein entscheidendes Element im Lebensprozess. A
Vervielfältigung eines Bakteriums (Escherichia coli)
durch binäre Spaltung.
6,67 x 106 Bit/Sekunde
gleicht
6,67 MB/Sekunde
Computers
daran arbeiten
Parameter, aber sie
sind kein Ergebnis
der Zufälligkeit
und ja mit Absicht
38 Albert Einstein, Remarkson Bertrand Russell’s Theory of Knowledge, The Philosophy of Bertrand Russell, P. A. Schilpp, Herausgeber, Tudor Publishing, NY, 1944, S. 290 e J. W. Oiler Jr., Language and Experience: Classic Pragmatism, University Press of America, 1989, p. 25.
126
Kontrollierter Informationsprozess in
Die obige Abbildung veranschaulicht den Prozess, der in allen lebenden Zellen abläuft. Es handelt sich um einen zyklischen Prozess der Information und Kontrolle.
Vereinfacht ausgedrückt können wir sagen, dass die DNA die RNA-Synthese steuert, die wiederum die Proteinsynthese steuert, und dass Proteine die DNA-Synthese steuern. Beachten Sie, dass die DNA-Synthese nur durch enzymatische Katalyse erfolgt, die durch RNA etabliert wird.
Ein solcher zyklischer Prozess muss von Anfang an vollständig und perfekt gewesen sein. Eine Reihe natürlicher Prozesse würde ein solches Ergebnis mit gegenseitiger Abhängigkeit nicht hervorbringen: Ohne einen Teil würde das Ganze nicht funktionieren.
In jeder der drei Phasen des Prozesses haben wir das gleiche Modell:
, „ , . Informationen .tonte des Empfängers von. , - B D gespeichert und /o u . R .
Informationen r ^ r Informationen
Dieses Übertragungsmodell ist vollständig und Informationsquelle und Informationsempfänger sind perfekt integriert.
Wenn wir das Leben auf seine grundlegendsten Teile und seine irreduziblen Prozesse zusammenfassen, stehen wir vor der großen Komplexität eines Informationssystems, in dem alle Teile präzise und perfekt aufeinander abgestimmt sein müssen, damit es funktioniert.
Es besteht nicht die geringste Möglichkeit, dass ein solches System das Ergebnis von Milliarden kleiner Zufälle über Milliarden von Jahren gewesen sein könnte!
Proteinenzyme
Kontrollierte DNA-Synthese
durch Enzyme
RNA-kontrollierte Proteinsynthese
ZellenDNA-gesteuerte RNA-Synthese
127
Reservieren Sie G e n é t ic a s
Diese Komplexität des genetischen Codes ist nicht nur unter dem Gesichtspunkt der Entstehung des Lebens, sondern auch unter dem Gesichtspunkt seiner Erhaltung faszinierend. Lebensformen verändern sich im Laufe ihres Lebenszyklus. Sie beginnen diesen Zyklus in einer Phase der „Kindheit“, in der sie reifen und „Erwachsene“ werden. Sie vermehren sich, werden alt und sterben. Alle Informationen zu diesen Lebensabschnitten sind perfekt in der DNA jedes einzelnen von ihnen verschlüsselt.
Nehmen wir als Beispiel einen viel untersuchten Schmetterling, den Danausplexippus, der als Monarchfalter bekannt ist. Auf der westlichen Hemisphäre kommt es in Kanada, den Vereinigten Staaten und Mexiko vor. Sein Lebenszyklus von einigen Monaten ermöglicht eine vollständige Untersuchung aller Phasen, die der Schmetterling durchläuft. Sie ist ein hervorragendes Beispiel für biologische Beobachtung.
Alle Stadien, die der Monarchfalter durchläuft, werden sorgfältig durch seinen genetischen Code gesteuert, einschließlich eines großartigen Beispiels für Transformation (Metamorphose).
In drei Tagen aus dem winzigen Ei, das zunächst nur einen Millimeter groß war
Schmetterlingseier auf einer Pflanze Larve Beginn der Puppe
Ausgewachsener Schmetterling Chrysalis schlüpft aus der Puppe
128
Monarchfalter (Danaus plexippus)
Meter erscheint eine Larve mit sechzehn Beinen und etwa vier Zentimeter Länge. Nachdem sie sich zwei Wochen lang in einen selbst hergestellten Seidenkokon eingehüllt hat, verwandelt sich die Larve (auch Raupe genannt) in einen Schmetterling mit sechs Beinen und Flügeln mit einer Flügelspannweite von acht bis zwölf Zentimetern. Das alles in etwa 60 Tagen.
Während seiner wenigen Lebensmonate ernährt sich der Monarchfalter, fliegt, wandert und paart sich. Nach Abschluss seines Fortpflanzungszyklus dehydriert es und stirbt. Dieser Zyklus des Monarchfalters zeigt uns, dass sich im Inneren des kleinen, scheinbar trägen Eies alle genetischen Anweisungen befinden, die dafür sorgen, dass es sich in allen Phasen seines Lebens entwickelt.
Wenn wir diesen Zyklus beobachten, verstehen wir, dass in der kleinen Eizelle eine genetische Reserve vorhanden war. Es gab eine Morphologie im genetischen Code, als der Organismus noch nicht absolut nichts von dieser Morphologie manifestiert hatte. Im genetischen Code befanden sich auf sorgfältig geplante Weise alle Strukturen und Formen, die der Schmetterling durchqueren würde, damit er seine endgültige Form erreichen konnte. Diese unglaublichen, hochkomplexen Transformationen gelten als sequentielle genetische Reserven. Alle komplexen Organismen haben sie.
Aufeinanderfolgende genetische Reserven machen aus sechzehn Beinen nicht immer sechs oder Lebensformen, die zuerst gehen und dann fliegen. Aber sie alle führen dazu, dass vielzelliges Leben wächst und sich von einer einzelnen Eizelle oder Eizelle zu einer erwachsenen Konfiguration entwickelt, was kontinuierliche strukturelle und funktionelle Veränderungen erfordert, die innerhalb eines molekularen Systems geplant, organisiert, koordiniert, kontrolliert und gesteuert werden. weit darüber hinaus unserem aktuellen Verständnis, in der DNA. Die Entwicklung eines vielzelligen Organismus bis zum Erwachsenenalter ist nicht die einzige Art der genetischen Reserve. Schauen wir uns einige andere an.
Viele Pflanzen verändern im Laufe des Jahres die Farbe ihrer Blätter, bringen zu bestimmten Zeiten Blüten und zur richtigen Zeit Früchte hervor. all diese Veränderungen
entstehen durch die in der DNA enthaltenen genetischen Anweisungen. Vögel ziehen ihre Jungen im Frühling und Sommer auf und ziehen im Herbst nach einem vorgegebenen Zyklus.
Es gibt auch Tiere, die je nach Jahreszeit ihre Fellfarbe ändern. Ein Beispiel ist der Polarfuchs (Alopex lagopus). Im Sommer ist sein Fell gräulich und passt hervorragend in die Tundra der Polarregion. Sie verfügt jedoch über eine genetische Reserve
Foto: Bill Walsh (www.dearlyseen.
A O Ff í G £ M D A V D A
Es ermöglicht Ihnen, im Winter von Grau auf Weiß zu wechseln, was Ihnen eine perfekte Tarnung im Schnee bietet.
Diese Veränderungen erfolgen nicht zufällig, sondern programmiert: Das Fell des Polarfuchses verändert sich nicht in irgendeine Farbe, sondern zur richtigen Zeit in die richtige Farbe. Daher ist es notwendig, dass diese zyklischen Reservierungen präzise und pünktlich erfolgen. Wenn sie nicht so funktionieren würden, würden die von ihnen abhängigen Lebensformen nicht von einer Saison zur nächsten überleben. Ihre Aktualität und Genauigkeit müssen während des gesamten Lebens des Organismus zyklisch konstant sein.
Es ist wichtig zu beachten, dass viele dieser durch Genpools hervorgerufenen Veränderungen innerhalb weniger Stunden und nicht durch langsame, zufällige Prozesse erfolgen. Daher ist der genetische Code eine vollständige Informationseinheit. Die DNA eines Organismus stellt bei Bedarf genetische Reserven zur Verfügung. Es gibt keine Interferenz zwischen ihnen.
Jede Lebensform verfügt über vielfältige genetische Reserven in Form von morphologischen, funktionellen und Verhaltensmechanismen. Diese Funktion zielt darauf ab, Anforderungen innerhalb der unterschiedlichen Umgebung präzise und pünktlich zu erfüllen.
Wenn eine Person an einem sonnigen Tag läuft, müssen verschiedene Proteine gleichzeitig erscheinen, um der körperlichen Anstrengung und der Hitze standhalten zu können. Das Auftreten dieser Proteine ist auf die genetische Reserve zurückzuführen, die in der DNA des Menschen vorhanden ist.
Während des Laufs erhöht sich durch einen Reiz auch Ihre Herzfrequenz. Dieser Anstieg der Herzfrequenz wird als Reaktion bezeichnet. Wenn die betreffende Person jedoch einige Wochen lang weiterhin Sport treibt, wird ihre Herzfrequenz nach dieser Zeit niedriger sein als zu Beginn. Diesen Rückgang der Herzfrequenz nennen wir Adaption. Auch die Umwelt kann über die genetischen Reserven der DNA solche Reaktionen hervorrufen. Die umweltbezogenen Reaktionen heißen Akklimatisierung (künstlich) und Akklimatisierung (natürlich).
Bei Fischen erscheint die Akklimatisierung als Reaktion auf den Reiz, der durch die Änderung der Wassertemperatur entsteht. Diese unmittelbaren Reaktionen sind ein Attribut der physiologischen Konfiguration der DNA. Durch genetische Reserven erscheinen sie als dynamische Konfigurationen der DNA und synthetisieren die Proteine, die für den Reiz notwendig sind, sei es intern (Bewegung) oder extern (Umwelt).
Die Frage, die wir uns stellen, lautet also: Was würde mit einem Organismus passieren, wenn der Reiz eine Reaktion erfordern würde, die der genetische Pool nicht hervorrufen kann? Würden durch den Anreiz neue genetische Reserveinhalte entstehen? Würde es eine Variation im Organismus geben? Evolution?
130
Wohltätigkeit (1859)William-Adolphe Bouguereou (1825-1905)
Va r ia ç ã o n o s Or g a n is m o s V iv o s
Die vielen Lebensformen sind Ausdruck großer biologischer Vielfalt. Wir sehen, dass Brüder und Schwestern nicht gleich sind. Wir sehen, dass sogenannte eineiige Zwillinge (eineiige oder eineiige) weder die gleichen Fingerabdrücke noch das gleiche Verhalten haben. Pflanzen aus den Samen derselben Frucht sind nicht gleich.
Was hätte die Vielfalt an Lebensformen hervorgebracht, die wir auf dem Planeten finden? Wie hätten sie sich entwickelt? Wie beantworten Sie die Fragen auf der vorherigen Seite? Da die verschiedenen Lebensformen unterschiedliche Eigenschaften haben, machen wir eine kleine Analogie.
Das zufällige Auftreten eines neuen Merkmals könnte durch den folgenden Prozess veranschaulicht werden:
1. Schreiben Sie einen aussagekräftigen Satz.2. Schreiben Sie den Satz neu, fügen Sie einige Fehler ein und fügen Sie etwas hinzu
einige Buchstaben.3. Untersuchen Sie den neuen Satz und prüfen Sie, ob er Sinn ergibt.4. Wenn es sinnvoll ist, ersetzen Sie den ursprünglichen Satz durch den neuen.5. Wenn es keinen Sinn ergibt, kehren Sie zu Schritt 2 zurück.
Der oben beschriebene Prozess wäre äquivalent zum evolutionistischen Vorschlag durch Mutationen, hauptsächlich solche des Typs, der als Genduplikation bekannt ist, durch quantitative Vergrößerung des genetischen Materials. Der zufällige Aspekt von Mutationen, den die Evolution für den Ursprung der Artenvielfalt darstellt, wurde bereits früher behandelt.
Zwar können durch Mutationen ganze Chromosomen verdoppelt werden, wie es bei der Trisomie 21 beim Menschen der Fall ist, die das Down-Syndrom verursacht. Es ist auch eine beobachtete Tatsache, dass eine Duplikation nicht unbedingt in einem einzelnen Chromosom auftritt. Es kann zu einer Verdoppelung des gesamten Chromosomensatzes, der sogenannten Polyploidie, kommen, die insbesondere bei Kulturpflanzen zu einer genetischen Verbesserung führt. Durch diese Veränderung entsteht jedoch keine Sequenz in der DNA, die neue genetische Informationen trägt. Dabei handelt es sich lediglich um eine Vervielfältigung bereits vorhandenen genetischen Materials.
Es ist wichtig anzumerken, dass diese Chromosomenvariationen (Chromosomenmutationen) offenbar einen wichtigen Faktor bei der Bildung neuer Arten spielen, normalerweise beim Auftreten des Wildtyps.39
39 Für eine detaillierte Untersuchung der molekularen Mechanismen der Mikroevolution siehe Reinhard Junger und Siegfried Scherer, Evolution-a Critical Text Book, Sociedade Criacionista Brasileira, Brasília, 2002, S. 96-134.
131
Dabei handelt es sich jedoch nur um genetisches Material (Informationen), das bereits vorhanden ist.
Kehren wir aus genetischer Sicht zur Frage der Variation zurück. Könnte die Umwelt das Auftreten von etwas stimulieren, das in den genetischen Reserven des Organismus nicht vorhanden ist? Würden Mutationen neue genetische Reserven schaffen, die dem Organismus die Fähigkeit geben würden, zu reagieren, sich anzupassen oder sich zu akklimatisieren, was für sein Überleben notwendig ist? Die Antwort, die wir bisher aus der Genetik haben, lautet: NEIN!
Wie sind also die vielen Arten zu erklären? Auch hier muss der genetische Code die Antwort liefern. Ein vollständiger und perfekter genetischer Code würde bereits in sich selbst Vorkehrungen für Variationen treffen. Diese Bestimmungen würden sich daher durch die in der Variation erzeugten Kapazitäten manifestieren.
Welche Arten von Variationen? Diejenigen, die es dem lebenden Organismus ermöglichen, zu überleben, wenn Veränderungen in der Umwelt auftreten. In diesem Fall wäre die Anpassungsfähigkeit eines Organismus eingeschränkt. Wenn die erforderliche Anpassung über die genetische Fähigkeit des Organismus hinausgehen würde, auf den erzeugten Reiz zu reagieren, würde er sterben. Im größeren Maßstab würde man sagen, dass diese Gruppe lebender Organismen ausgestorben ist. Falls der Anpassungsbedarf innerhalb der Grenzen der genetischen Kodierung liegt, würde diese Anpassung in Form einer Variation des ursprünglichen Organismus erfolgen.
Beachten Sie noch einmal, dass es sich um genetische Reserven handelt. Bisher ist nichts aufgetaucht, was nicht das Ergebnis bereits vorhandener genetischer Informationen war.
E p e c ia ç ã o e E p e c ia l iz a ç ã o
Der kreationistische Vorschlag für das Phänomen der Variation in lebenden Organismen ist der Vorschlag, der als genetisch polyvalente Grundtypen bekannt ist. Lebewesen wurden ursprünglich in taxonomisch unterschiedlichen Einheiten geschaffen. Jede biologische Art geht auf einen bestimmten Grundtyp zurück. Mehrere biologische Arten würden aus mehreren unabhängigen Grundtypen hervorgehen. Jede der verschiedenen Lebewesengruppen hat ihre eigenen Eigenschaften, die sie von den anderen unterscheiden.
Die direkte oder indirekte Kombination zwischen Arten, die vom gleichen Grundtyp stammen, durch Kreuzung würde Hybridelemente hervorbringen, die fruchtbar sein könnten oder nicht. Die große Anzahl an Hybriden, die sich in Variationen in der Form des Grundtyps (weibliche Charaktere) manifestieren
132 °C. Y C
Titelseite von Thomas Henry Huxleys Buch Evidence
in Bezug auf den Platz des Menschen in der Natur (1863) und vergleicht mehrere
Affenskelette mit denen des Menschen. Notiere dass der
Der erste von links, „Gibbon“, hat ein zweifaches Verhältnis
größer als die anderen.S k e le to n s q f i k e
Ginnox. Oder ein Nein. C u i m f a s z g e . G « i r i l i . A . Max.
Fotografisch dargestellte Diagramme
Schimpanse-Gorilla-Mann
Orangotango
1 S X s X2p S X s X2q S X s X3 S S s X4 X X X X5 S X s X6 S s s S7 S X s X8 S X17 X X X X18 5 s s X19 S s s s20 S s s X21 S s s s22 S s s s23 X X X
spezifische Nottypen von Grundtypen) weist darauf hin, dass es innerhalb dieser Grundtypen gleiche Elementarexemplare (morphogenetische Gene) gibt.
Lassen Sie uns dieses Konzept in eine einfachere Form bringen. Schauen Sie sich die Unterschiede an, die es beim Menschen gibt. Wir alle bringen bestimmte Eigenschaften von unseren Vorfahren zum Ausdruck, und unsere Vorfahren von ihren Vorfahren und so weiter. Auch heute noch besitzen wir die Grundmerkmale des ersten Grundtyps des Menschen. Diese Eigenschaften finden sich bei allen Menschen.
Was unterscheidet uns von anderen Lebensformen? Unter den vielen Merkmalen ist unsere physische Form eines der offensichtlichsten. Viele Evolutionisten, die in der Vergangenheit an eine unbegrenzte Anpassungsfähigkeit glaubten, die weit über jede in einer genetischen Reserve bestehende Möglichkeit hinausging, gingen von vermeintlichen morphologischen Ähnlichkeiten zwischen Menschen und Affen als „Beweise“ einer gemeinsamen Abstammung aus, wie wir in der Abbildung oben sehen das Buch von Thomas Huxley.
Noch heute glauben viele Evolutionisten, dass bestimmte „Ähnlichkeiten“ zwischen dem genetischen Material von Menschen und Affen ein bewundernswerter Beweis für eine gemeinsame Abstammung zwischen ihnen wären.
Die nebenstehende Tabelle zeigt einen Vergleich zwischen den Chromosomen des Menschen und den Chromosomen von drei Affenarten: Gorillas, Schimpansen und Orang-Utans. Der Buchstabe „S“ zeigt an, dass es einige Ähnlichkeiten gibt (die weit davon entfernt sind, identisch oder gar ähnlich zu sein), und der Buchstabe „X“, dass keine Ähnlichkeit besteht.40
Schauen wir uns die Frage der Ähnlichkeit im genetischen Material genauer an. Erstens hat der Mensch 23 Chromosomenpaare, während Affen 24 haben. Das muss es also gegeben haben
40 Yunis, J. J., Sawyer, J. R., Dunham, K., Die auffallende Ähnlichkeit hochauflösender g-bandierter Chromosomen von Mensch und Schimpanse, Science, Bd. 208,6dejunhode 1980, p. 1145 -1148 e Yunis, J.J., Prakash, 0., Der Ursprung des Menschen: ein chromosomales Bildvermächtnis, Science, Bd. 215, 19. März 1982, S. 1525 - 1530.
A 0 H I i e rv V 133
eine Art chromosomale Fusion im Laufe der Zeit, wenn sich der Mensch aus Affen oder einem gemeinsamen Vorfahren beider entwickelt hätte, der über 24 Chromosomenpaare verfügte.
Wenn Menschen und Affen einen gemeinsamen Vorfahren hätten und dieser Vorfahre 23 Chromosomenpaare hätte, wären diese Chromosomen bei Affen einer Chromosomenspaltung unterzogen worden (von 23 auf 24 Paare). Viele Evolutionisten glauben, dass es das erste war: die Fusion. Was auch immer der Fall sein mag, lassen Sie uns die Beweise untersuchen.
Einige der erwähnten Ähnlichkeiten zwischen menschlichem und Affen-Chromosomenmaterial sind in der nebenstehenden Abbildung dargestellt. Chromosom 2 (insbesondere 2p und 2q) beim Menschen ist dem von Schimpansen, Gorillas und Orang-Utans sehr ähnlich, wenn die strukturelle Sequenzierung der Chromosomen dieser Affen verändert ist. Beachten Sie die natürliche Reihenfolge des menschlichen Chromosoms (H), wobei sich die anderen Chromosomen in veränderter Position befinden.
Diese Ähnlichkeiten treten hauptsächlich in Form von Umkehrungen auf. Beispielsweise wird eine Sequenz 5'(TTAGGG) zu (CCCTAA)3\. Denken Sie daran, dass die gebildeten Paare A-T und C-G sind. Daher würde TTAGGG der CCCTAA-Inversion entsprechen.
Wir haben bereits gesagt, dass der genetische Code wie ein Buch ist. Wenn wir über Chromosomen sprechen, beziehen wir uns in Analogie zum Buch auf Kapitel. Wenn wir uns mit den Sequenzen der genetischen Buchstaben beschäftigen, die durch A, T, C und G gebildet werden, haben wir es mit Wörtern zu tun.
Buchkapitel können in der Länge und sogar in bestimmten strukturellen Aspekten der Nachrichtenplatzierung ähnlich sein. Aber es sind die Worte, die dem Text Bedeutung verleihen. Lassen Sie uns den Fall der Chromosomeninversion anhand der Analogie aus dem Buch veranschaulichen. Vergleichen wir diese beiden Sätze:
H c G o
Vergleich zwischen Chromosom 2 (2p und 2q) von Menschen (H), Schimpansen (C), Gorillas (G) und Orang-Utans (O), nach J. J. Yunise O.
Prakash, „Der Ursprung des Menschen: ein Chromosom.“
Bildvermächtnis“, Science, Bd. 215, 19. März,
1982, S. 1525-1530.
ROM IST EIN GESCHENK DER GÖTTER.
LIEBE IST EIN GESCHENK DER GÖTTER.
Die Anzahl der Buchstaben und die Buchstaben selbst im Satz sind genau gleich. Und die Reihenfolge der Buchstaben? Hat die Umkehrung des Wortes ROMA zum Wort LIEBE die Bedeutung verändert? Die Antwort ist ein eindeutiges JA.
Ein Buch, das über ROM spricht, könnte genau die gleiche Anzahl an Kapiteln und Seiten haben wie ein anderes Buch, das über LIEBE spricht. Aber die beiden würden sich mit völlig unterschiedlichen Themen befassen. Der Informationsgehalt wäre unterschiedlich, während die Form ähnlich wäre. Einer noch
Auch hier stellen wir nicht die „Ähnlichkeit“ in Frage, sondern den Inhalt der Informationen in der Ähnlichkeit.
Wenn wir uns den genetischen Code von Schimpansen und Menschen genauer ansehen (und dabei nicht nur einige Aspekte der Chromosomen berücksichtigen), erkennen wir, dass die Ähnlichkeit offensichtlich ist. Bestimmte menschliche Merkmale hängen mit Chromosom 21 zusammen. Ähnliche Merkmale treten auf Chromosom 22 bei Schimpansen auf (z. B. das Down-Syndrom).
Diese Ähnlichkeit, die nicht einmal als offensichtlich angesehen werden kann, da sie auf unterschiedlichen Chromosomen gefunden werden, verschwindet, wenn man sie auf der molekularen Ebene der DNA behandelt.
Eine vom Japan Genomic Science Center veröffentlichte Studie, in der das menschliche Chromosom 21 mit dem Chromosom 22 eines Schimpansen verglichen wurde, zeigte, dass 1,44 % der Chromosomen aus Einzelbasensubstitutionen bestehen und etwa 68.000 Deletionen sind. Allein diese Unterschiede reichen aus, um bei den meisten Proteinen Veränderungen hervorzurufen. Darüber hinaus weisen 83 % der 231 kodierten Sequenzen, darunter für die Funktionalität wichtige Gene, Unterschiede in den Aminosäuresequenzen auf.41
Die Schlussfolgerung in der Zusammenfassung des Artikels besagt, dass „die genomischen Veränderungen nach der Artbildung [bei Schimpansen und Menschen] und ihre biologischen Folgen komplexer zu sein scheinen als die ursprünglich vorgeschlagene Hypothese.“42 Allerdings geben die Autoren zu, dass Menschen und Schimpansen Gemeinsamkeiten hatten Vorfahr, der Abstand zwischen ihnen nimmt zu, je mehr man das Genom jedes einzelnen entschlüsselt. Die Bücher ihres Lebens (die DNA) erzählen eine andere Geschichte. Einige Teile mögen sogar ähnlich sein, aber die Geschichte ist anders.
Dieses Beispiel verdeutlicht den kreationistischen Vorschlag genetisch polyvalenter Grundtypen und die Einschränkung der Artbildung aufgrund vorhandener genetischer Reserven.
U m Ú l t im o P e n s a m e n t o
Es gibt Bücher, die sich mit unterschiedlichen Themen befassen. Analog dazu wären dies die Grundtypen in der Biologie (jedes Buch hat seine eigenen zu übermittelnden Informationen – jede Gruppe von Lebewesen hat ihre eigenen zu übermittelnden genetischen Informationen). Es gibt jedoch Bücher, die sich mit dem gleichen Thema befassen. Analog dazu stellen diese die Variation eines Grundtyps dar.
41 Yoshiyuki Sakaki und Asao Fujiyama, DNA-Sequenz und vergleichende Analyse des Schimpansenchromosoms22, Nature 429, 27. Mai 2004, S. 382-388.
42 Ebd., S. 382.
135
co – Arten (Bücher, die die gleichen Informationen mit kleinen Abweichungen übermitteln – Grundtypen, die sich spezialisieren und Arten bilden).
Das Beispiel im Buch, das analog zum genetischen System ist, verdeutlicht den Grund für das bestehende Design in Lebensformen.
Richard Dawkins, Francis Crick und andere argumentieren, dass die Natur den Anschein einer absichtlichen Gestaltung erweckt.
Allem Anschein nach hat die Natur nur den Anschein einer Evolution aus einem einzigen gemeinsamen Vorfahren. Aber wie man sieht, ist das nur Schein!
§ MINUS
KAPITEL 5
A O r i g e m
VON FOSSILIEN:
Pal e on t o l o g i a e G e o l o g i a
„Po r q u e . e n t ã o , c a d a f o r m a ç ã o g e o l ó g i c a e c a d a c a m a d a
Ist es nicht voller Zwischenlinks? "
Charles Darwin
„WENN ES NICHT DER FOSSILBERICHT IST, DER VOLLSTÄNDIG IST.
EV O L U C I O N T-STATUS [EV O L U C I O N T-ST A ].“
Die W a s h ing to n Post W e e k ly
138 C 0 T u d C 5 M
Fossil, abgeleitet von der lateinischen Bedeutung „fossilis“.
durch Ausgrabung gewonnen.
Mikrofossil einer kleinen Fliege (Rasterelektronenmikroskop)
Ameisenfossil (Bernstein)
Menschliches Fossil (Torfmoor)
Fossilien, Paläontologie und Evolution
Ein Fossil ist ein Exemplar, das direkte oder indirekte Beweise für die Existenz eines in der Vergangenheit lebenden Organismus enthält. Mit anderen Worten: Das Leben in der Vergangenheit hat im gesamten sogenannten Fossilienbestand Spuren hinterlassen. Jedes Fossil enthält, wenn auch in begrenztem Umfang, Informationen über das Leben in der Vergangenheit. Aber wie kann man es richtig verstehen und interpretieren?
Dies ist die Arbeit der Paläontologie, die das Leben, das in der Vergangenheit auf dem Planeten Erde existierte, anhand versteinerter Organismen untersucht.
Wie wir im vorigen Kapitel gesehen haben, lieferte Darwin fast alle angeblich unterstützenden Beweise für die Evolutionstheorie auf der Grundlage von vier Disziplinen: Biogeographie, Embryologie, Morphologie und Paläontologie. Aber in der Paläontologie lag ihr zentraler Vorschlag. Darin sollten Beweise für die Evolution des Lebens ans Licht kommen, die viele Formen des Übergangs zwischen den Arten mit sich bringen und die vermeintlichen Lücken füllen, die die Zeit hinterlassen hat.
Durch die Datierung der Fossilien könnte eine mögliche Chronologie erstellt werden, die ein aufeinanderfolgendes Auftauchen und Verschwinden von Leben auf unserem Planeten zeigt. Daher wäre die Paläontologie der Schlüssel zum Aufschlagen des großen Buches über die Entwicklung des Lebens auf unserem Planeten.
Innerhalb dieser gemeinsamen Wahrnehmung unter Menschen und auch unter vielen Wissenschaftlern sollte die Paläontologie die Entwicklung des Lebens klar aufzeigen. Lassen Sie uns zunächst sagen, dass, wenn diese Aussage wahr wäre, ein Teil dessen, was bisher gesagt wurde und ein Teil dessen, was gesagt werden soll, nicht den geringsten Sinn ergeben würde, da es dem Versuch gleichkäme, das Offensichtliche zu entkräften.
Daher müssen wir überprüfen, was wissenschaftliche Studien zu Fossilien über die Geschichte des Lebens auf dem Planeten Erde und die Evolution ergeben haben.
Tip o s d e Fó s s e is
Wir wissen, dass Fossilisierungsprozesse vollständig von den verschiedenen Arten organischer Gewebe und den unterschiedlichen Bedingungen abhängen, die mit dem Prozess verbunden sind. Beginnen wir unsere Studie mit den vier Hauptkategorien im Zusammenhang mit Fossilbildungsprozessen.
1. Fossilien mit unveränderten Teilen2. Fossilien mit veränderten Teilen3. Geformte und ausgefüllte Fossilien4. Restfossilien
1. Fossilien mit unveränderten Teilen sind solche, in denen der Organismus
139
(oder Teile davon) bleibt in seiner ursprünglichen Zusammensetzung erhalten. Das organische Material bleibt praktisch vollständig und unverändert (Quallen, Muscheln), wobei weiche Bestandteile (Blätter, Tentakel) oder harte Bestandteile (Zähne, Knochen) erhalten bleiben.
Bei der unveränderten Konservierung „weicher“ Fossilien bleiben die chemischen Elemente des organischen Materials unverändert. Dieser Prozess findet in Bernstein (Insekten, Frösche, Salamander, Blätter, Pollen), in Torfmooren (Menschen, Tiere und Pflanzen), in Teer (Vögel, Säugetiere und Reptilien) durch Mumifizierung oder Austrocknung (Entzug von Wasser aus Geweben) statt ) und durch Einfrieren (Gewebe, Mammuts, Nashörner usw.).
Die Konservierung „harter“ Fossilien erfolgt in Aragonit (CaC03) (Weichtiere, Schalentiere usw.), in Apatit (Ca5(P04)3(F,Cl,0H)) (Haiezähne, Stachelrochenzähne usw.), in Kieselsäure (Si02*H20) (Schwämme, einzellige Algen, kleine Protozoen usw.) und organischen Wänden (Pollen, Sporen, einzellige Protisten usw.).
2. Fossilien mit veränderten Teilen sind solche, bei denen die ursprünglichen chemischen Elemente durch andere ersetzt wurden, um eine stabilere Struktur zu bilden. Diese Art der Konservierung kommt sowohl bei „weichen“ als auch bei „harten“ Fossilien vor. Es gibt mehrere Fossilbildungsprozesse dieser Art. Wir werden hier nur fünf erwähnen.
Unter Ersatz versteht man den Prozess, bei dem das ursprüngliche Strukturmaterial des Organismus entfernt und gleichzeitig Atom für Atom durch ein anderes Mineral ersetzt wird. Dabei bleibt die ursprüngliche innere Mikrostruktur im Allgemeinen erhalten. Einige häufige Ersatzbeispiele sind:
Calcit (CaC03) ■=> Siliciumdioxid (Si02) Calcit (CaC03) Pyrit (FeS2) Calcit (CaC03) ^ Gips (CaS04#H20) Calcit (CaC03), z> Dolomit (CaMg(C03)2) Ein häufiges und dramatisches Beispiel Der Effekt dieser Art der Versteinerung ist die sogenannte
Pyritisierung, bei der das ursprüngliche organische Material während der Fossilisierung ersetzt oder mit Pyrit bedeckt wird.
Permineralisierung ist der Prozess, bei dem poröse Räume, beispielsweise in Muscheln, Holz oder Knochen, mit Mineralien gefüllt werden. Die Mineralien, die die Hohlräume füllen, werden im Allgemeinen in wässrigen Lösungen transportiert. Dieser Prozess kommt häufig bei Fossilien vor, die in Sedimentgesteinen vorkommen. Durch diesen Prozess wurden viele Dinosaurierknochen und Baumteile versteinert.
Ein Prozess ähnlich der Permineralisierung und Ersetzung, der bei Holz sehr häufig vorkommt, ist die Versteinerung. Darin wird das vergrabene organische Material durch Mineralien (im Allgemeinen Kieselsäure und Quarz) ersetzt, die in den durch die Zersetzung der Zellulose entstandenen Hohlräumen kristallisieren.
Mammutfossil (eingefroren)
Fischfossil (Ersatz)
Baumfossil (Permineralisierung)
Baumfossil (Versteinerung)
140
versteinertes Blatt
Karbonisierung ist der Prozess, bei dem Weichgewebe durch Verdunstung (Verflüchtigung) von Wasserstoff, Sauerstoff und Stickstoff als Kohlenstofffilm erhalten bleibt. Gewöhnlich findet man durch Karbonisierung versteinerte Fische, Krebstiere und Blätter.
Rekristallisation ist der Prozess, bei dem eine instabile Form eines in der Struktur des Organismus vorhandenen Materials in eine stabilere Form des Minerals oder in größere Kristalle desselben Minerals umkristallisiert wird. Während des Prozesses bleibt die äußere Form des Organismus unverändert
(Verkohlung) Die inneren Mikrostrukturen werden zerstört oder verdeckt. Dieser Prozess wird mit der Zeit, dem Druck und der Temperaturerhöhung verstärkt.
3. Form- und Füllfossilien sind Fossilien, bei denen nur die Form des Organismus erhalten geblieben ist. Bei geformten Fossilien werden die Hohlräume durch die äußere oder innere Oberfläche des Fossils hinterlassen. Äußere Formen werden als Negativrelief bezeichnet, während innere Formen als Positivrelief bezeichnet werden. Füllfossilien sind eine identische Nachbildung des Originals und füllen das Negativrelief eines geformten Fossils mit Sedimenten oder Mineralien.
4. Spurenfossilien (Spurenfossilien) sind von Tieren hinterlassene Abdrücke wie Fußabdrücke, Spuren, Eier, Höhlen, Verstecke, Abfälle und Fäkalien. Diese Art von Fossil liefert Informationen über das Verhalten des Tieres, wie z. B. das Fressverhalten, die Fähigkeit zur Bewegung und Fortbewegung, die Unterbringung und sogar einige besondere Gewohnheiten.
Es gibt andere Kategorien von Fossilien, die nicht mit dem Entstehungsprozess selbst zusammenhängen, aber besondere Merkmale aufweisen. Schauen wir uns die wichtigsten an.
Mikrofossil ist der Begriff, der in der Wissenschaft der Mikropaläontologie verwendet wird, die Fossilien von Pflanzen und Tieren untersucht, deren Größe für eine Analyse mit bloßem Auge zu klein ist. Typischerweise werden Fossilien, die kleiner als ein Millimeter sind, in diese Kategorie eingeordnet. Mikrofossilien stammen normalerweise von vollständigen, nahezu vollständigen Organismen oder von kleinen Teilen eines Organismus. Beispiele sind Planktonfossilien (vollständig) und Pollenfossilien (Teile). Einige Mikrofossilien speichern Informationen, die zum Verständnis des Klimas der Vergangenheit beitragen können.
Lebendes Fossil ist die Bezeichnung für Lebewesen, die auch im Fossilienbestand vorkommen. Einige der lebenden Fossilien sind lebende Vertreter von Arten, die nur aus Fossilien bekannt sind. Andere stammen von einer einzigen heute lebenden Art, die in der Vergangenheit große Unterschiede aufwies, die nur aus dem Fossilienbestand bekannt waren. In lebenden Fossilien verfügen wir über eine Fülle von Informationen über eine Art, Informationen sowohl aus der Gegenwart als auch aus der Vergangenheit.
Muschelfossil (Rekristallisation)
Einwohner von Pompeji (Abgussfossil)
Dinosaurier-Fußabdruck (Überrestfossil)
A 0 s I 0 F 141
Vieles über lebende Fossilien wird nicht diskutiert. Aufgrund seiner Bedeutung für das Verständnis des Erscheinungsbildes des Lebens und der Artenvielfalt werden wir uns jedoch später ausführlicher mit der Menge und Vielfalt lebender Fossilien befassen.
Pseudofossilien sind visuelle Muster in Gesteinen, die eher durch geologische als durch biologische Prozesse entstanden sind. Ein sehr häufiges Beispiel sind die natürlich vorkommenden Muster in Gesteinsspalten, die durch das Eindringen von Mineralien gefüllt werden. Eine Art Ginkgo adiantoides
Eines der bekanntesten Pseudofossilien ist „Moosachat“, sehr ähnlich zu (lebendem Fossil)
die Blätter der Pflanzen.
F o r m a t i o n von Fó s s e is
In der Diskussion über Belege aus dem Fossilienbestand bestehen nach wie vor viele Missverständnisse über die Entstehung von Fossilien, die direkten Einfluss auf die Interpretation paläontologischer Funde haben. Damit sich ein Fossil bilden kann, müssen daher Faktoren vorhanden sein, die die Erhaltung des Organismus vor Faktoren ermöglichen, die seine Erhaltung behindern könnten.
Einer der Hauptfaktoren, der schnell gehemmt werden muss, ist die organische Zersetzung. Fossilien von Wassertieren (z. B. Quallen), die viele Details in ihrer weichen Struktur aufweisen, scheinen äußerst gut erhalten zu sein1, was darauf hindeutet, dass die Versteinerung schnell erfolgte. Damit Tiere wie Aquamarin schnell versteinern, ist eine schnelle Bestattung erforderlich, damit der Zersetzungsprozess verlangsamt und gehemmt werden kann.
Dies allein würde jedoch nicht ausreichen. Eine anoxische Umgebung (mit wenig Sauerstoff) wäre ein weiterer wichtiger Faktor für die Erhaltung organischen Materials bis zum Abschluss des Fossilisierungsprozesses.
Ein dritter wichtiger Faktor ist der Einschluss in Sedimenten, der eine Auflösung des Organismus unmöglich machen würde.
Diese drei Faktoren sind notwendig, um den Mechanismen der Verwitterung und Erosion (mechanische Prozesse), der Oxidation und Auflösung (chemische Prozesse) sowie der mikrobiellen und räuberischen Tieraktivität (biologische Prozesse) entgegenzuwirken. Alle diese Faktoren zusammen zeigen, dass die Entstehung eines Fossils in einer abnormalen Situation erfolgt. Ein Tier oder eine Pflanze, die einen natürlichen (normalen) Tod erleidet, würde den Fossilisierungsprozess kaum durchlaufen.
1 Preston Cloud und Martin F. Glaessner, The Ediacarian Period and System: Metazoa Inherited the Earth, Science, Bd. 217, 27. August 1982, S. 783-792, und Donal G. Mikulic et al. „A Silurian Soft-Bodied Biota“, Science, Bd. 228.10 Mai 1985, S. 715-717.
Ginkgo biloba (lebendes Fossil)
Moosachat (Pseudofossil)
Fossil einer Qualle (datiert auf 570 Millionen Jahre alt)
142
Wenn man bedenkt, was wir bisher gesehen haben, können drei wichtige Schlussfolgerungen über Fossilien gezogen werden: 1. Die Fülle an Fossilien zeigt die Zerbrechlichkeit des Lebens in Bezug auf
anormale Situationen der Umwelt und bezeugt auch die Anzahl dieser anormalen Situationen, die in der Vergangenheit aufgetreten sind (mögliche Ursachen werden in Kapitel VII behandelt).
2. Die genannten Faktoren für die Entstehung von Fossilien unterstreichen den guten Erhaltungszustand, in dem sie im Allgemeinen gefunden werden, und zeigen, dass die überwiegende Mehrheit der im Fossilienbestand gefundenen Fossilien einen schnellen Bestattungsprozess durchlief.
3. Die in Fossilien enthaltenen Informationen beziehen sich im Allgemeinen auf die Todesgeschichte des Organismus und nicht unbedingt darauf, wie er gelebt hätte.
Eine Stratigraphie
North Rim (Enchanting Point) Grand Canyon, USA
Nicolas Steno, ein dänischer Wissenschaftler aus dem 17. Jahrhundert, vermutete, dass Gesteine und Mineralien in der Vergangenheit Sedimente waren, die im Wasser gefunden wurden. Basierend auf dieser Überlegung kommt er zu dem Schluss, dass Partikel (Sedimente) in einer Flüssigkeit (Wasser) absinken und eine horizontale Schicht bilden würden, wie die Gesteinsschichten, die die Stratigraphie der geologischen Säule bilden. Dieses Prinzip wurde als Prinzip der anfänglichen Horizontalität bekannt. Er kam auch zu dem Schluss, dass sich diese Schichten (Schichten) in der Vergangenheit seitlich weit über die heutigen Grenzen hinaus erstreckten. So wurde ein weiteres Prinzip formuliert, das als Prinzip der Kontinuität der Schichten bekannt wurde. Basierend auf diesen beiden Prinzipien und deren Anwendung als Funktion der Zeit schlug Steno das sogenannte Superpositionsprinzip vor, das in seiner einfachsten Form lautet:
Die Gesteinsschichten scheinen in einer zeitlichen Abfolge angeordnet zu sein, wobei sich die ältesten am Boden und die jüngsten in der Nähe der Oberfläche befinden, es sei denn, es hat ein Prozess stattgefunden, der eine Störung dieser Organisation verursachen würde.
Diese drei Prinzipien der Geologie, Archäologie und Paläontologie bilden die Grundlage für die „Geologische Säule“.
wurde gegründet. Es ist wichtig zu beachten, dass diese Grundsätze festgelegt wurden
selbstverständlich, ohne dass experimentelle Daten vorliegen, die sie bestätigen.
Daher basiert die Richtigkeit des Konzepts der „Geologischen Säule“ auf der Bestätigung der horizontalen Schichtenbildung
142
Wenn man bedenkt, was wir bisher gesehen haben, können drei wichtige Schlussfolgerungen über Fossilien gezogen werden: 1. Die Fülle an Fossilien zeigt die Zerbrechlichkeit des Lebens in Bezug auf
anormale Situationen der Umwelt und bezeugt auch die Anzahl dieser anormalen Situationen, die in der Vergangenheit aufgetreten sind (mögliche Ursachen werden in Kapitel VII behandelt).
2. Die genannten Faktoren für die Entstehung von Fossilien unterstreichen den guten Erhaltungszustand, in dem sie im Allgemeinen gefunden werden, und zeigen, dass die überwiegende Mehrheit der im Fossilienbestand gefundenen Fossilien einen schnellen Bestattungsprozess durchlief.
3. Die in Fossilien enthaltenen Informationen beziehen sich im Allgemeinen auf die Todesgeschichte des Organismus und nicht unbedingt darauf, wie er gelebt hätte.
EINE STRATIGRAPHIE
Nicolas Steno, ein dänischer Wissenschaftler aus dem 17. Jahrhundert, vermutete, dass Gesteine und Mineralien in der Vergangenheit Sedimente waren, die im Wasser gefunden wurden. Basierend auf dieser Überlegung kommt er zu dem Schluss, dass Partikel (Sedimente) in einer Flüssigkeit (Wasser) absinken und eine horizontale Schicht bilden würden, wie die Gesteinsschichten, die die Stratigraphie der geologischen Säule bilden. Dieses Prinzip wurde als Prinzip der anfänglichen Horizontalität bekannt. Er kam auch zu dem Schluss, dass sich diese Schichten (Schichten) in der Vergangenheit seitlich weit über die heutigen Grenzen hinaus erstreckten. So wurde ein weiteres Prinzip formuliert, das als Prinzip der Kontinuität der Schichten bekannt wurde. Basierend auf diesen beiden Prinzipien und deren Anwendung als Funktion der Zeit schlug Steno das sogenannte Superpositionsprinzip vor, das in seiner einfachsten Form lautet:
Die Gesteinsschichten erscheinen in einer zeitlichen Abfolge geordnet, wobei die ältesten am Boden liegen und die
North Rjm nahe der Oberfläche, es sei denn, es hat (Enchantress Point) ein Prozess stattgefunden, der eine Störung dieser Organisation verursachen würde.
Diese drei Prinzipien der Geologie, Archäologie und Paläontologie bilden die Grundlage für die Gründung der „Geologischen Säule“. Es ist wichtig zu beachten, dass diese
Die Prinzipien wurden ohne experimentelle Daten als selbstverständlich etabliert.
Elemente, um sie zu bestätigen. Daher die Richtigkeit des Konzepts
der „Geologischen Säule“ basiert auf der Bestätigung der horizontalen Gesteinsbildung
A O !•: ! ■ :,i 143
individuell und zeitlich überlagert. Mit anderen Worten: Wenn es möglich wäre, dass sich zwei oder mehr überlappende Schichten gleichzeitig bilden, wäre die chronologische Interpretation der geologischen Säule falsch. Dazu suchen wir nach wissenschaftlichen Erkenntnissen, die in den Bereichen Sedimentologie, Hydrodynamik und Paläontologie selbst zu finden sind.
Untersuchungen in den Bereichen Sedimentologie und Hydrodynamik zeigen, dass sich die Schichten gleichzeitig lateral und vertikal ausbilden, was der chronologischen Interpretation widerspricht.
In den 1960er Jahren erzeugte der Bijou Creek River im US-Bundesstaat Colorado bei einer einzigen Überschwemmung eine Sedimentablagerung von 3,5 Metern, die auf 48-stündige sintflutartige Regenfälle an seinem Quellgebiet zurückzuführen war.
Diese durch den Überlauf des Flusses entstandene Ablagerung wurde vom amerikanischen Geologen Edward McKee eingehend untersucht. Er stellte fest, dass es sich bei der Lagerstätte um ein System gleichzeitig gebildeter Schichten handelte, in denen die Sedimente in derselben stratigraphischen Form abgelagert worden waren, die auch in den Gesteinen der geologischen Säule zu finden war.2 Dr. Guy Berthault führte Experimente durch, die die Beobachtungen von McKee bestätigten. Die Experimente wurden in großen Kanälen mit Glaswänden durchgeführt, durch die wasserhaltige Sedimente strömten. Dadurch konnte die Ablagerung von Sedimenten beobachtet werden.3-4'3
Die Experimente zeigten, dass es durch die Wasserströmung zu einer Entmischung der Sedimente nach der Größe der Partikel kommt, die durch die bereits abgelagerten Sedimente abgebremst werden, wodurch sich übereinanderliegende Schichten in Fließrichtung bilden. Diese Experimente zeigten die mechanische Natur der Schichtung.
Die Entdeckung, dass sich Schichten gleichzeitig seitlich und vertikal bilden, zeigte, dass die Prinzipien der Schichtung bei Abfluss nicht gelten. Diese Entdeckung zeigte auch, dass die aufeinanderfolgenden Schichten chronologisch nicht aufeinander folgen. Ähnliche Untersuchungen zeigten die gleichen Ergebnisse: Schichtung ist das Ergebnis der Sedimentation durch abfließendes Wasser.6'7
2 E. D. McKee, E. J. Crosby und H. L. Berryhill Jr., Flood Deposits, Bijou Creek, Colorado, 1965, Journal of Sedimentary Petrology, 1967, 37,829-851.
3 G. Bertault, Experimente zur Laminierung von Sedimenten. Berichte Akademie der Wissenschaften Paris, 1986, Bd. 303, Serie II, Nr. 17:1569-1574.
4 G. Berthault, Sedimentation einer heterogranularen Mischung: experimentelle Laminierung in stillem und fließendem Wasser. Compte Rendus Académie des Sciences Paris, 1988, t. 306, Serie II:717-724.
5 P. Y. Julien, Y. Lan und G. Berthault, Experimente zur Schichtung heterogener Sandmischungen, Bulletin der Geologischen Gesellschaft Frankreichs, 199,3,164(5):649-660.
6 L. A. Boguchwal und J. B. Southard, 8ed-Konfigurationen in stetigen unidirektionalen Wasserflüssen. Teil 1. Maßstabsgetreue Modellstudie mit feinem Sand, Journal of Sedimentary Petrology, 1990, 60:649-657.
7 J. B. Southard und A. L. Boguchwal, Bettkonfigurationen in stetigen unidirektionalen Wasserflüssen. Teil 2. Synthese von Gerinnedaten, Journal of Sedimentary Petrology, 1990,60(5):658-679.
Diagramm, das die Entstehung von Strukturen zeigt
Sedimente, die durch feine Sandkörner im Wasser entstehen.
Wellenhöhe Sandwassergeschwindigkeit (Meter) (Zentimeter/Setjundo)
das Bild links: Tiefe x Höhe des Sandes
die auf der richtigen Tiefe x Wassergeschwindigkeit
144 ich
Polystratifiziertes Fossil (in Deutschland gefunden)
Die Bildung der zahlreichen Schichten der geologischen Säule war das Ergebnis eines schnellen hydrodynamischen Prozesses und nicht einer langsamen Sedimentation über Millionen oder Milliarden von Jahren. Zu derselben Schlussfolgerung kommt man, wenn man polystratifizierte Fossilien untersucht.
Bei einem Polystratfossil handelt es sich um einen Organismus, der über zwei oder mehr Schichten versteinert wurde. Bäume sind die häufigsten Beispiele für Polystrata-Fossilien und kommen auf der ganzen Welt vor, hauptsächlich im Osten der Vereinigten Staaten, im Osten Kanadas, England, Frankreich, Deutschland und Australien.
Wenn wir die Abbildung auf der Seite betrachten, sehen wir, dass der Stamm des versteinerten Baumes mehrere Schichten der geologischen Säule (mindestens 10) durchquert. Nach der evolutionistischen Interpretation entspricht jede dieser Schichten einer geologischen Periode. Wenn eine solche Interpretation wahr wäre, wäre dieser Baum während mindestens zehn geologischen Perioden langsam und allmählich begraben worden, ohne zu verrotten oder abzusterben!
Bäume wie dieser wurden nicht über lange geologische Zeitalter hinweg langsam und allmählich begraben. Es bildeten sich schnell Schichten, die den Baum begruben, und er versteinerte, bevor die Schichten, in denen er begraben war, erstarrten. Solche Fossilien sind auch ein Beweis für die schnelle Schichtbildung in der geologischen Säule.
Es gibt immer noch Gesteinsformationen, in denen Schichten von Sedimentgesteinen zu finden sind, die durch einen Prozess der Kompression und Faltung verfestigt wurden. Beispiele wie das auf der nächsten Seite finden sich in den großen Gebirgsketten unseres Planeten. Basierend auf den Beweisen und der Forschung können daher drei Schlussfolgerungen in Bezug auf die Stratigraphie als selbstverständlich angesehen werden:
1. Die Prinzipien der Superposition und Kontinuität gelten nicht.2. Die Entstehung erfolgte schnell und nicht in langen geologischen Zeitaltern.3. Die geologische Zeitskala, weil sie auf diesen Prinzipien basiert,
ist ungültig.
Es ist daher offensichtlich, dass die Interpretation der stratigraphischen Überlappung als lange geologische Zeitalter nicht gültig ist. Die Implikationen dieses Interpretationsfehlers liegen auf der Hand und werden im Folgenden behandelt.
Reg ist t r o Fó s il
Charles Darwin gelangte zu dem richtigen Schluss, dass „...die Anzahl der Zwischensorten, die es zuvor gab, wirklich enorm sein sollte.“ Warum sind dann die geologischen Formationen und jede einzelne Schicht nicht voll von solchen Zwischengliedern? Die Geologie offenbart natürlich keine so fein abgestufte organische Kette; Das ist es,
Daher ist es der offensichtlichste und schwerwiegendste Einwand, der gegen die [Evolutions-]Theorie erhoben werden kann.8 Basierte Darwin die Logik seiner Theorie der Evolution der Arten auf dem Prinzip der Faunensukzession?
William Smith, ein englischer Ingenieur zu Beginn des 19. Jahrhunderts, war derjenige, der beobachtete, dass Gesteine und Fossilien, selbst von unterschiedlichen Standorten, gewisse Ähnlichkeiten hinsichtlich der Art der Schichten und der Arten der in jeder Schicht gefundenen Fossilien aufwiesen. Basierend auf dieser Beobachtung stellte er ein Prinzip auf, das er Faunensukzession nannte. Zu dieser Schlussfolgerung gelangte er auf der Grundlage des Superpositionsprinzips.
Wie wir bereits gesehen haben, basierte dieses von Darwin übernommene Prinzip der Faunensukzession auf dem Superpositionsprinzip, dessen Ungültigkeit bereits nachgewiesen wurde. Darwin baute ein ganzes logisches Argument auf einem ungültigen Prinzip auf. Seine Argumentation war grundsätzlich falsch. Das gleiche Argument wird auch heute noch von der Naturwissenschaft verwendet. Wenn diese Fehlinterpretation des Fossilienbestands beseitigt wird, was sagen die Beweise dann aus? Mal sehen.
Schichten aus gefaltetem Sedimentgestein.
British Columbia, Kanada, in der Nähe des Sullivan River (geografische Lage)
La c u n a s n o Reg ist t r o Fó s il
Fossilien kommen in vielen Regionen unseres Planeten vor, vom Grund der Ozeane bis zu den Gipfeln der Berge. Die Gebiete, in denen Fossilien leichter zu finden sind, sind Gebiete mit starker Erosion (Land mit sehr rauer Topographie, Berghänge und Klippenbasis), Gebiete, die durch menschliche Aktivitäten freigelegt wurden (Straßenschluchten, Steinbrüche und Minen) und Gebiete mit tierischer Aktivität (wie Ameisenhaufen usw.). Versteck).
Die Verteilung der Fossilien in der Stratigraphie bietet ausreichende Beweise für eine plausible Schlussfolgerung: Es gibt keine wissenschaftliche Grundlage, die sich aus einer Beobachtung ergibt.
8 Charles Darwin, On the Origin of Species by Meons of Natural Selection, veröffentlicht von John Murray, London, 1859, Erstausgabe, S. 323.
9 Ebd., Kapitel 10.
145
146
Fischfossil (noch nicht geöffnet)
Fischfossil (offen und mit beiden Hälften)
direkt aus der Stratigraphie, welche Arten sich entwickelt haben. Die Beweise zeigen, dass es zwischen den Arten Variationen, ein gewisses Maß an Anpassung und ein Aussterben gegeben hat. Eine kontinuierliche Evolution zwischen den Arten wird in der Stratigraphie nicht beobachtet und hinterlässt daher Lücken im sogenannten Fossilienbestand.
Wie Darwin selbst feststellte, bestehen Lücken. Er hatte keine Erklärung dafür, warum es zu diesen Lücken kam. Ihm zufolge liegt die Erklärung in der Tatsache, dass „nur ein kleiner Teil der Welt genau bekannt ist“.10 Von der Zeit, als Darwin diese Aussage machte (die Veröffentlichung seines Buches erfolgte 1859), bis heute, ca über 150 Jahre sind vergangen. Was ist mit den Lücken im Fossilienbestand passiert?
In allen Museen der Welt ist eine große Vielfalt und Vielfalt an Fossilien ausgestellt. Wenn man jedoch das gesamte vorhandene Fossilienmaterial aus all diesen Museen zusammenfasst, wäre es nicht möglich, empirische Beweise für die allmähliche Entwicklung des Lebens auf dem Planeten als Funktion der „geologischen Säule“ zu liefern.
Arzt David Raup, Direktor des Field Museum of Natural History in Chicago, sagte: „... wir sind jetzt etwa 120 Jahre nach Darwin und das Wissen über den Fossilienbestand hat sich erheblich erweitert. Mittlerweile gibt es etwa eine Viertelmillion fossiler Arten, aber an der Situation hat sich nicht viel geändert. Die Evolutionsbilanz bleibt immer noch überraschend wackelig und ironischerweise haben wir noch weniger Beispiele für einen evolutionären Übergang als zu Darwins Zeiten. Damit meine ich, dass einige der klassischen Fälle darwinistischer Veränderungen im Fossilienbestand, wie etwa die Entwicklung des Pferdes in Nordamerika, aufgrund detaillierterer Informationen verworfen oder modifiziert wurden – was wie eine einfache, exakte Entwicklung erschien Als relativ wenig Daten verfügbar waren, scheint es heute viel komplexer und weniger graduell zu sein. Daher wurde Darwins Problem in den letzten 120 Jahren nicht gemildert, und wir haben immer noch Aufzeichnungen, die Veränderungen zeigen, die aber kaum als die rationalste Folge natürlicher Selektion angesehen werden können.“n
Tatsächlich dokumentiert der Fossilienbestand keinen einzelnen Übergang überzeugend. Es gibt kein einziges Fossil, für das man ein Argument vorbringen könnte, das nicht bestritten würde. Als Beispiele können wir die Ichthyostega (Amphibie aus der Devon-Zeit, die als Bindeglied zwischen Landwirbeltieren und Fischen mit inneren Nasenlöchern angesehen wird) und das Hyracotherium, auch Eohippus genannt, nennen
10 Ebd., S. 25911 David M. Raup, Konflikte zwischen Darwin und Paläontologie, Field Museum of Natural History
Bulletin, Bd. 50, Nr. 1, Januar 1979, S. 1. 25.
Ein 0 Fuß I o
(das sich von der Tapir-Nashorn-Gruppe durch ein oder zwei pferdeähnliche Schädelmerkmale unterscheidet).
Ichthyostega hat die vollständige Struktur einer Amphibie, wobei einige Teile denen anderer Tiere ähneln. Diese Ähnlichkeiten bedeuten nicht Abstammung, sondern Funktionalität.
Bei Hyracotherium (1eohippus) zeigt die traditionell dargestellte Reihenfolge Hyracotherium, Mesohippus, Merychippus, Pliohippus und Equus nur voll entwickelte Formen. Statt einer kontinuierlichen Abfolge zeigt es Sprünge, die genetisch nicht erklärbar sind. Beispielsweise weisen die Formen von Eohippus und die nähere Gattung Mesohippus einen Höhenunterschied an der Schulter von etwa 30 cm auf. Es wurde keine Zwischenform zwischen diesen beiden Gruppen entdeckt. Jede dieser Gruppen stellt einen perfekten Organismus dar, der keiner Evolution bedarf.
Diese und viele andere Beispiele werden fälschlicherweise als unwiderlegbarer Beweis der Evolution dargestellt. Was wir wissen ist, dass die Lücken real sind und weiterhin der stärkste Beweis gegen die Evolution sind, sodass der Vorschlag einer Evolution ohne Beweise akzeptiert wird.
Ordnungen, Klassen und Stämme tauchen im Fossilienbestand plötzlich auf, oft mit allen Merkmalen, die sie voneinander unterscheiden. Gewöhnlich folgt auf dieses schnelle Erscheinen eine Explosion der Diversifizierung, so dass praktisch alle bekannten Ordnungen oder Familien plötzlich ohne erkennbare Form des Übergangs auftauchen.12 Damit der Evolutionsvorschlag eine wissenschaftliche Studie bleibt, sind daher Vorschläge erforderlich, die wissenschaftlich erklären, warum es Lücken gibt im Fossilienbestand sollten dargestellt werden.
Ein solcher Vorschlag wurde von Stephen J. Gould und Niles Eldredge gemacht: die Theorie des unterbrochenen Gleichgewichts (Punctualismus). Darin hätten sich schnell mehrere Evolutionssprünge vollzogen, die keine Spuren hinterließen und die im Fossilienbestand gefundenen Lücken hinterließen. Ein solcher Vorschlag löst selbst bei naturalistischen Wissenschaftlern mit Bezug zur Genetik Erstaunen aus. Nur ein Wunder würde so viele Veränderungen im genetischen Code in so kurzer Zeit bewirken. Und sie müssten alle fast gleichzeitig ablaufen und alle in die gleiche Richtung gehen, um die endgültigen Veränderungen herbeizuführen, die im Organismus erforderlich sind.
Aber die Antwort auf die Existenz solcher Lücken gibt uns Dr. Colin Paterson: „Der Grund ist, dass Behauptungen über Abstammung und
12 Francisco J. Ayalla und James W. Valentine, Evolving, The Theory and Process of Organic Evolution, Menlo Park, Kalifornien, The Benjamim Cummings Publishing Co., 1979, S. 258; George Gaylord Simpson, Tempo and Mode in Evolution, NewYork, Columbia University Press, 1944, S. 107;e Stephen J. Gould, Evolution's Erratic Pace, Natural History, Bd. 5, Mai 1977, S. 12,14.
Fossil des Hinterbeins eines Ichthyostega
(Universitätsmuseum für Zoologie, Cambridge)
Fossil eines Pferdes in Vulkanasche (Ashfall, USA)
Archaeopteryx-Fossil (Juramuseum, Eichstätt,
Deutschland)
148
Fossil eines Trilobiten
Trends sind nicht auf den Fossilienbestand anwendbar. War Archaeopteryx der Vorfahre aller Vögel? Vielleicht ja, vielleicht nein: Es gibt keine Möglichkeit, die Frage zu beantworten. Es ist sehr einfach, Geschichten darüber zu schreiben, wie eine Form eine andere hervorgebracht hat, und Gründe zu finden, warum die Stadien durch natürliche Selektion bevorzugt werden sollten. Aber solche Geschichten sind nicht Teil der Wissenschaft, da es keine Möglichkeit gibt, sie zu testen.“13
Der Beweis für das Fehlen von Fossilien, die zum Beweis der Evolutionsthese benötigt werden, ist deutlich in den Lücken im Fossilienbestand zu sehen: „Die von den meisten Biologen erwarteten allmählichen morphologischen Übergänge zwischen Vorfahren und vermuteten Nachkommen fehlen.“ „14
C o m p l e x id a d e D e s d e o Iní c i o
Ein Trilobitenauge hat mehr als 15.000 Linsen (Elektronenrastermikroskopie)
„Die abrupte Art und Weise, in der ganze Gruppen von Arten plötzlich in bestimmten Formationen auftauchen, wurde von mehreren Paläontologen als fataler Einwand gegen den Glauben an die Transmutation von Arten angesehen.“ Wenn wirklich viele Arten, die derselben Gattung oder Familie angehören, gleichzeitig entstanden wären, wäre diese Tatsache für die Theorie der Evolution durch natürliche Selektion fatal“15
Nichts ist für die Evolutionstheorie so schwerwiegend wie der Beweis des gleichzeitigen Auftretens voll entwickelter Lebensformen ohne jede Spur von Abstammung. Im Fossilienbestand liefert das Kambrium solche Beweise für die sogenannte „Kambrische Explosion“.
Die in diesen Gesteinen gefundenen Fossilien weisen nicht nur unterschiedliche Lebensformen auf, sondern weisen auch einen hohen Grad an Komplexität auf, der der Evolution zufolge nicht innerhalb kurzer Zeit entstanden sein konnte. Ein Beispiel für dieses sogenannte „urzeitliche Komplexitätsrätsel“ der Evolutionisten ist der Trilobit. Seine Fossilien werden vom unteren Kambrium (550 Millionen radiometrische Jahre) bis zum Perm (250 Millionen radiometrische Jahre) gefunden.
Ihre Körper waren kunstvoll segmentiert, mit einem kephalisierten Nervensystem, gegliederten Brust- und Bauchanhängseln, Fühlern und Facettenaugen. Kurz gesagt, die Molekularbiologie von Trilobiten ist in jeder Hinsicht so komplex wie die aller heute lebenden Organismen.16
Diese Komplexität könnte nicht besser dargestellt werden als durch das Auge des Trilobiten. Die Linse jedes Ommatidiums bestand aus einem einzelnen Calcitkristall (CaCO3), wobei die optische Achse des Kristalls mit der zusammenfiel
13 Charta von Dr. Colin Paterson und Luther D. Sunderland (www.talkorigins.org/faqs/patterson.html)14 David E. Schindel, The Gaps in the Fossil Record, Nature, Bd. 297, 27. Mai 1982, S. 282
(David E. Schindel vom Kurator des Peabody Museum of Natural History, Invertabrate Fossils).15 Charles Darwin, On the Origin of Species by Means of Natural Selection, veröffentlicht von John
Murray, London, 1859, Erstausgabe, S. 344.16 Ricardo Levi-Setti, Trilobiles, Chicago, The University of Chicago Press, 1993.
Calcit-Komplexauge
149
optische Achse des Objektivs. Dies würde ein ernstes Problem für das visuelle System des Trilobiten darstellen, da sein Auge aus einer einzigen dicken sphärischen Kalzitlinse besteht, die kein Licht erzeugen kann, um ein kohärentes Bild zu erzeugen.
Das Geheimnis der Funktionsweise des Auges des Trilobiten liegt in einem einzigartigen optischen System, das bei keinem anderen Organismus bekannt ist. Dieses System verwendet zwei bikonvexe Linsen mit unterschiedlichen Brechungsindizes, die miteinander verbunden sind. Die Schnittstelle dieser beiden Linsen ist in der Wissenschaft als „Huyghens-Oberfläche“ bekannt, da ihre optischen Prinzipien von den Physikern Christian Huyghens und René Descartes ausführlich erklärt wurden.
Damit Trilobiten das Licht richtig auf die Rezeptoren fokussieren können, wäre eine spezielle Form der bikonvexen Linse erforderlich. Die beiden Möglichkeiten sind in den nebenstehenden Abbildungen dargestellt. Die linke ist eine Descartes-Linse, die im Trilobit Crozonaspis zu finden ist, und die rechte ist eine Huyghens-Linse, die im Trilobit Dalmanitina zu finden ist.
Die Komplexität des Trilobitenauges und seines Designs ist so faszinierend, dass der Kernphysiker Dr. Ricardo Levi-Setti, anerkannter Experte auf dem Gebiet der Trilobiten, sagte: „Wenn wir bedenken, dass Trilobiten solche Geräte vor fünfhundert Millionen Jahren entwickelt und verwendet haben, ist unsere Bewunderung noch größer.“ Eine letzte Entdeckung – dass die brechende Grenzfläche zwischen den beiden Linsenelementen im Auge von Trilobiten nach optischen Konstruktionen entworfen wurde, die Descartes und Huyghens im 17. Jahrhundert entwickelt hatten – grenzt an reine Science-Fiction … Das Auge eines Trilobiten könnte durchaus in Frage kommen für ein Patent für eine Erfindung.“17 Das Auge des Trilobiten ist eine beispiellose technische Leistung.18
Es ist auch wichtig zu beachten, dass der Trilobit nicht nur das komplexeste Auge hat, das der Mensch kennt, sondern auch, dass sich seine Zellen bereits auf ähnliche Weise teilten wie die heutiger Lebensformen. Sein gesamter molekularer Mechanismus formte und funktionierte, wie man es bei den sogenannten modernen Insekten sieht. Er hatte ein Nervensystem, das wie alle heutigen Organismen mit Synapsen arbeitete. Mit anderen Worten: Der Trilobit ist mehr als zeitgemäß, da sein Auge nicht nur perfekt mit heutigen Organismen vergleichbar ist, sondern auch noch keine Konkurrenten getroffen hat.
Der Trilobit ist nur eines von vielen Beispielen, die zeigen, dass Komplexität von Anfang an Teil des Lebens war. Im Fossilienbestand gibt es keine Beispiele für halb entwickelte Organe, weder Federn, Augen, Haut, Schläuche (Arterien, Venen, Eingeweide usw.) noch eines der Tausenden anderen Organe
Descartes Huyghens Linsen Linsen
Huyghens-Oberfläche
17 Ebd., S. 55, 57,18 Lisa J. Shawver, Trilobitenaugen: Eine beeindruckende Leistung der frühen Evolution, Science News, Bd. 105, 2
Februar 1974, S. 72.
150 C O K O I J C J U E C O !..
Ansichten aus dem Auge des Trilobiten
lebenswichtig für bekannte Lebensformen. Die Komplexität, die das Leben durch Fossilien in der gesamten geologischen Säule darstellt, ist einer der großartigen Beweise für Design. Die Schlussfolgerung ist einfach: Intelligentes Design ist in Fossilien real, da das Leben seit seiner Entstehung immer ein hohes Maß an Komplexität aufweist.
Sir Isaac Newton fragte in seinem Kommentar zu Auge und Ohr: „Wäre das Auge ohne Kenntnisse in Optik und das Ohr ohne Kenntnisse in Akustik entworfen worden?“19
Rückansicht
Vista seitlich
Rückenansicht
Ammonitenfossilien (gilt als charakteristische Fossilien oder Altersfossilien – Leitfossil)
Falsch ist ein chronologischer Verfasser
Wie wir bereits gesehen haben, wurde die vertikale Abfolge der in der sogenannten geologischen Spalte gefundenen Fossilien immer wieder als chronologischer Beweis für eine angebliche evolutionäre Reihenfolge verwendet. Wir konnten erkennen, dass diese Interpretation aufgrund der Herkunft der Schichten auf Prinzipien basiert, die zum Zeitpunkt ihrer Konzeption als „selbstverständlich“ galten. Heute ist jedoch bewiesen, dass sie falsch sind (Prinzip der anfänglichen Horizontalität und Prinzip der Überlagerung).
Vielleicht ließe sich argumentieren, dass diese Schichten über lange geologische Zeiträume hinweg durch bisher unbekannte Ursachen entstanden sein könnten. Daher konnte eine chronologische Interpretation der Schichtenordnung validiert werden. Lassen Sie uns diese Möglichkeit prüfen.
Der französische Naturforscher Georges Cuvier (1769–1832) war einer der ersten, der beobachtete, dass bestimmte Fossilien mit bestimmten Gesteinsarten in Verbindung gebracht werden. Diese Fossilien erhielten die Bezeichnung charakteristische Fossilien oder Altersfossilien (Leitfossil). William Smith (1769–1839), englischer Geologe und Zeitgenosse von Cuvier, schlug das Prinzip der stratigraphischen Paläontologie vor, bei dem das Alter einer geologischen Schicht anhand der darin enthaltenen Altersfossilien ermittelt werden konnte. Dieses Prinzip wurde als Paläontologisches Identitätsprinzip bekannt. Dieses Prinzip besagt: Wenn zwei Schichten (Schichten) die gleichen Fossilien (charakteristische Fossilien) aufweisen, dann müssen diese Schichten das gleiche Alter haben.
Daher wurde die Zuordnung der Zeit zu einer vertikalen Abfolge von Schichten durch das Prinzip der Kontinuität der Schichten vorgenommen. Es kann gezeigt werden, dass das Prinzip der Kontinuität der Schichten und das Prinzip der paläontologischen Identität neben den bereits erwähnten Polystrata-Fossilien auch in mindestens zwei Bereichen nicht mit den Beweisen übereinstimmen:
• nicht existierende geologische Epochen. • Fossilien in der falschen Reihenfolge
19 Isaac Newton, Opiicks, New York, McGraw-Hill, 1931, S. 369-3
Agate Springs Fossil Cemetery Rock, Nebraska
Denver Museum für Naturgeschichte
Nicht existierende geologische EpochenAllein in den Vereinigten Staaten gibt es über 200 geologische Formationen.
die in der falschen Reihenfolge erscheinen, gemäß der von der konventionellen Stratigraphie vorgeschlagenen Reihenfolge^S.20 Nur im Grand Canyon gibt es eine Diskontinuität; ' Paläozoikum zwischen dem Kambrium (Muav-Stratum) und dem Devon (Templè»??. Butte-Stratum) entspricht 100 Millionen geologischen Jahren!
Diese Tatsache ist kein Sonder- oder Einzelfall, der nur in den Vereinigten Staaten auftritt. Das Gleiche ist auf allen Kontinenten zu beobachten.
Ein ähnliches Beispiel findet sich in Zentralafrika, wo mesozoische Schichten existieren, ohne dass Schichten aus dem oberen oder unteren Paläozoikum gefunden werden. In Regionen Spaniens kommen Schichten des unteren Paläozoikums und des Mesozoikums vor, während Schichten des oberen Paläozoikums nicht vorkommen.
Die geologische Säule, wie sie in Lehrbüchern dargestellt wird, findet sich praktisch nirgendwo.21 Nur 15 bis 20 % der Erdoberfläche weisen ein Drittel dieser Perioden in der von der Evolution vorgeschlagenen aufeinanderfolgenden Reihenfolge auf.22 Offensichtlich das Prinzip der Kontinuität der Schichten und der paläontologischen Identität Prinzipien, die auf einer chronologischen Interpretation der stratigraphischen Ordnung basieren, würden bei weitem nicht mit den Beweisen übereinstimmen.
Fossilien in der falschen ReihenfolgeViele Fossilien erscheinen in stratigraphischer Anordnung, nicht mit
kompatibel mit der vertikalen Interpretation, die die Evolutionstheorie der Entwicklung des Lebens durch den Fossilienbestand bietet. Ein klassisches Beispiel sind die sogenannten „Fossilengräber“. Auf ihnen findet man eine große Menge an Knochen lebender und ausgestorbener Menschen, Säugetiere, Wassertiere, Vögel und Reptilien, oft vermischt miteinander.
Einige Beispiele bekannter Fossilienfriedhöfe in den USA sind Bone Cabin Quarry in Wyoming, Agate Springs in Nebraska, Ashkey Beds in South Carolina und La Brea Pits in Los Angeles. Weltweit sind viele andere Regionen mit Fossilienfriedhöfen bekannt, beispielsweise in Brasilien, Tansania, Belgien, Schottland und Schweden.
Professor Francis Simmons Holmes, ein Paläontologe und
Ashkey Beds Fossil Cemetery, South Carolina
20 Walter E. Lammerts, Recorded Instances of Wrong Order Formations or Presumed Owertthrusts in the United States: Parts l-VHI, Creation Research Society Quarterly, September 1984, S. 88; Dezember 1984, S. 150; März 1985, S. 200; Dezember 1985, S. 127; März 1986, S. 188; Juni 1986, S. 38; Dezember 1986, S. 133;Juni 1987, S. 46.
21 Derek V. Ager, The Nature of the Stratigraphicai Record, 2. Auflage, New York, John Wiley & Sons, 1981, S. 32.
22 John Woodmorappe, The Essential Nonexistence of the Evolutionary-Uniformitarian Geologic Column: A Quantitative Assessment, Creation Research Society Quarterly, Bd. 18, Nr. 21, Juni 1981, S. 46-71.
152 -1 C C. 7 li C- 0 1
>
Fossil eines Säugetiers (Repenomamus robustus) mit einem Dinosaurier (Psittacosaurus) im Magen
Repenomamus robustus (Abbildung)
Der Kurator des Charleston College Museum of Natural History spricht in seinem 1870 veröffentlichten Buch mit dem Titel „The Phosphate Rocks of South Carolina“ von der großen Menge und Vielfalt an Lebensformen, die in denselben Schichten vorkommen. In dem Bericht, den er der Akademie der Naturwissenschaften über seine Forschungen zur Fossiliengräberstätte Ashey Beds vorlegte, beschrieb er die Fossilienbestattung wie folgt: „, Mastodons und ausgestorbene Riesenechsen“.2'6
Einer der größten und heute wohl bekanntesten Fossilienfriedhöfe ist der der Wüste Gobi in Asien. Dort wurde eine große Anzahl versteinerter Tierarten gefunden, darunter Dinosaurier, Eidechsen und Säugetiere, die von Mark Norell, Michael Novacek und anderen Paläontologen beschrieben wurden: „Unsere Expeditionen ... haben Dinosaurier, Eidechsen und Säugetiere in einer beispiellosen Erhaltungsqualität ausgegraben.“ . Kürzlich freigelegte Skelette ähneln oft eher Kadavern als 80 Millionen Jahre alten Fossilien. Und doch scheinen den Gobi-Gesteinen ironischerweise genau die Schichten zu fehlen, an denen derzeit das größte Interesse besteht: Bisher wurde kein Abschnitt zwischen der Kreidezeit und dem Tertiär gefunden, wo die Dinosaurier ausstarben. Welche Katastrophe auch immer die Dinosaurier (und viele andere Arten auf der Erde) ausgelöscht hat, ihre Spuren in Zentralasien scheinen gelöscht worden zu sein. „24
All diese großen Friedhöfe sind Zeugnisse des Massensterbens von Lebewesen. Im Allgemeinen wird diese Art von Informationen in den allermeisten Büchern weggelassen. Solche Fossilienfriedhöfe liefern den Beweis dafür, dass Lebensformen, die als Bewohner verschiedener geologischer Epochen (durch Millionen von Jahren getrennt) katalogisiert wurden, zeitgleich waren.
Ein Beispiel ist Repenomamus robustus, ein Säugetier von der Größe eines Stinktiers. Das Fossil dieses Säugetiers (gefunden in der Yixian-Formation, Provinz Liaoning, China, vom Team von Dr. Meng Jin, Kurator für Paläontologie am American Museum of Natural History) enthält einen kleinen Dinosaurier, der ebenfalls in seinem Magen versteinert ist.25
Das Fossil eines anderen größeren Säugetiers (Repenomamus gigantus), so groß wie ein Hund, wurde ebenfalls in derselben Region entdeckt, und nach Angaben der
Psittacosaurus (Abbildung)
23
24
25
F. S. Holems, Phosphatgesteine von South Carolina und das große Mergelbett von Carolina, mit fünf farbigen Abbildungen. Eine populärwissenschaftliche Betrachtung ihrer Herkunft, geologischen Lage und ihres Alters; auch ihr chemischer Charakter und ihr landwirtschaftlicher Wert; zusammen mit einer Geschichte ihrer Entdeckung und Entwicklung, Charleston, S.C., Holmes' Book House, 1870.Michael J. Novacek, Mark Norell, Malcolm C. McKenna und James Clark, Fossils of the Flaming Cliffs, Scientific American, vol. 271, 1994, S. 60-69.Yaoming Hu, Jin Meng, Yuanqing Wang, Chuankui Li, Große mesozoische Säugetiere ernährten sich von jungen Dinosauriern, Natur 433.149 -152.13 Januar 2005.
A O R ! O E M O S P H O Y 3 3 l:
Forscher wären auch zeitgenössisch mit den Dinosauriern gewesen (vor 130 Millionen Jahren, so die Forscher). Die Position des Magens ist bei diesen sogenannten primitiven Säugetieren genau die gleiche wie bei heutigen Säugetieren. Ähnlichkeiten wie diese kommen im Fossilienbestand sehr häufig vor.
F n S S T m V T V n S Fossil eines Quastenflossers U ò ò t l ò V I V U Ò (Chapada do Araripe-Brasilien)
Es besteht immer noch die falsche Vorstellung, dass lebende Fossilien seltene Ausnahmen im Fossilienbestand darstellen. Sie sind nicht! Viele dieser Fossilien, die in der Vergangenheit als Zwischenglieder galten, sind heute, genau wie im Fossilienbestand, lebend auf unserem Planeten zu finden. Das vielleicht bekannteste Beispiel ist der Quastenflosser. Bis Mitte der 30er Jahre des letzten Jahrhunderts glaubte man, dass der Quastenflosser ein Zwischenglied zwischen Fischen und Amphibien sei.
Die gefundenen Fossilien wurden auf ein Alter von 360 Millionen Jahren datiert. Es wurde auch angenommen, dass der Quastenflosser vor etwa 65 Millionen Jahren ausgestorben sei. Im Jahr 1938 präsentierte Marjorie Eileen Doris Courtenay-Latimer das erste lebende Exemplar des Quastenflossers (Latimeria chalumnae). Im Jahr 1952 wurde ein zweites lebendes Exemplar vorgestellt.
Derzeit wird der Quastenflosser von Einrichtungen wie dem Conservation International Indonesian Marine Program untersucht. Es hat in den letzten 360 Millionen Jahren keine Spur von Evolution gezeigt (laut evolutionärer Datierung)! Wäre es unter lebenden Organismen eine Ausnahme, die sich nicht entwickelt hätte? Die Antwort ist nein!
Jedes Jahr werden neue lebende Fossilien gefunden. Tiere und Pflanzen, die als ausgestorben gelten, gibt es heute noch auf unserem Planeten. Ein aktuelles Beispiel ist das in Laos entdeckte Kha-Nyou (Laonastes aenigmamus).26 Dieses kleine Maus-Eichhörnchen, wie es genannt wird, galt zunächst als eine neue Nagetierart, aber es war nur ein weiteres Exemplar, das auch in Laos gefunden wurde der Fossilienbestand27 (siehe Abbildungen auf der nächsten Seite).
Wie lassen sich diese Beweise (lebende Fossilien) mit der evolutionären Paläontologie in Einklang bringen? Während eine große Anzahl von Arten kleine Variationen erfahren hätte, hätte eine kleine Anzahl von Arten große Variationen erfahren? Als? Warum sollten nur bestimmte Gruppen von der „Notwendigkeit zur Weiterentwicklung“ (oder „Evolutionsmechanismen“) betroffen sein, während andere völlig gleich bleiben würden?
26 Paulina D. Jenkins, C William Kilpatrick, Mark F. Robinson und Robert }.T\mm\ns, Morphologische und molekulare Untersuchungen einer neuen Familie, Gattung und Art von Nagetieren (Mammalia: Rodentia: Hystricognatha) aus Laos PDR, Journal of Systematics and Biodiversity, 2. Dezember 2004, (4): 419-454.
27 Mary R. Dawson, Laurent Marivaux, Chuan-kui Li, K. Christopher Beard, Gregory Metais, Laonastes und der „Lazarus-Effekt“ in Recent Mammals, Science, 10. März 2006, Bd. 311. Nr. 5766, S. 311. 1456-1
Lebender Quastenflosser -1938
Lebender Quastenflosser – 1952
Lebender Quastenflosser - aktuell
154 C e v o T o d o C o m e ç o u
Fossil eines Laonastes-Rätsels (kha-nyou)
Ein lebendiges Beispiel eines Laonastes-Rätsels (kha-nyou)
Zuzugeben, dass kein Anpassungsbedarf bestand, käme dem Eingeständnis gleich, dass sich die Umwelt nicht verändert hat. Aber die Geologie zeigt, dass es sie gab! Lebende Fossilien sind ein Beweis dafür, dass im Laufe der Geschichte kleine, begrenzte morphologische Variationen auftreten. Aber diese kleinen, begrenzten Variationen sind kein Beweis für die notwendigen großen Veränderungen, die eine Evolution einer Art erfordern würde. Es sind lediglich Variationen. Und der Fossilienbestand ist in diesem speziellen Punkt sehr eindeutig!
Für „Evolutionssprünge“ oder gar Evolutionssequenzen fehlen immer noch Beweise aus dem Fossilienbestand.
O C r ia c io n ist m o
Dem Fossilienbestand zufolge erscheint das Leben plötzlich, vollständig, komplex und vielfältig. Leben, das zur gleichen Zeit lebte und keine Anzeichen eines Übergangs, sondern einer begrenzten Variation und eines Aussterbens hinterließ. Tiere und Pflanzen, die durch die Lehre von der Fehlinterpretation der Evolutionschronologie Millionen von Jahren voneinander getrennt waren, waren tatsächlich Zeitgenossen, wie der Fossilienbestand zeigt. Das Leben existierte schon immer mit der Komplexität und sogar dem hohen Grad an Vielfalt, die wir heute vorfinden: Einige Arten mit ihren Variationen sind bereits durch Aussterben verschwunden, während andere weiterhin auch nur eine kleine Variation (Nichtevolution) aufweisen, die es in der Natur nicht gibt der Fossilienbestand. . Für Kreationisten sind all diese Entdeckungen keine Überraschung. Im Gegenteil: Sie alle untermauern und stärken die kreationistischen Thesen.
Wir haben in diesem Kapitel nicht nur das Fehlen einer wissenschaftlichen Grundlage für die Evolutionstheorie gesehen, die eine Interpretation bietet, die nicht sowohl kohärent als auch konsistent mit allen verfügbaren Beweisen ist. Im Gegenteil, wir haben gesehen, dass die Grundlagen der Schöpfungstheorie und die von ihr gegebene Interpretation des Fossilienbestands wissenschaftlich kohärent und konsistent sind (siehe Anhang H).
U m ein C o n c l u s ã o Ó b via ia
Der Fossilienbestand und die Stratigraphie zeigen deutlich, dass die chronologische Interpretation der sogenannten geologischen Säule nicht mit den Beweisen übereinstimmt. Beide zeigen, dass die Evolution der Arten nie stattgefunden hat.
Auch hier ist es wichtig, sich darüber im Klaren zu sein, dass im Fossilienbestand kleine Abweichungen zu finden sind. Aber anzunehmen, dass solche begrenzten Variationen zu einer Evolution der Art geführt hätten, wäre reine Einbildung oder Spekulation und keine wissenschaftliche Tatsache.
A O F Ü L M 0 5 F Ô 3 5 F 155
Die Fossilien zeigen auch, dass die gleichen Grundstrukturen (Flügel, Augen, Pfoten) und Funktionen (Verdauung, Atmung, Fortpflanzung), die in den Fossilien vorkommen, genauso entwickelt und aktuell sind wie die der heute lebenden Organismen (siehe Abbildung neben einem Ichthyosaurier mit Embryo). . Solche Beweise, ohne die damit verbundene Fehlinterpretation einer vermeintlichen Chronologie, führen zu der offensichtlichen Schlussfolgerung des kreationistischen Vorschlags: dass das Leben schon immer existiert hat, von seiner Entstehung bis zum heutigen Tag, mit all der Komplexität, die wir heute darin finden.
Für viele wird diese Position, wie wir bereits gesagt haben, als religiös und simpel angesehen. Eine Schlussfolgerung, die auf einer direkten Beobachtung der Tatsachen beruht, hat jedoch weder etwas Religiöses noch Simpelhaftes. Wahre Wissenschaft wird niemals das verzerren, was sich vor den Augen eines Beobachters befindet.
Anhand von Fossilien gibt es noch viel zu entdecken. Wenn sich der Trend der Entdeckungen jedoch in der bisherigen Richtung fortsetzt, wird die naturalistische Theorie der darwinistischen Evolution in wissenschaftlichen Misskredit geraten.
Die Informationen in diesen beiden Kapiteln über das Leben waren der Hauptgrund für den Positionswechsel vieler Wissenschaftler heute, die die naturalistische Position einer angeblich darwinistischen Evolution des Lebens aufgegeben haben.
Wie stehen sie zu den Beweisen?28
Fossil eines Ichthyosaurus mit Embryo (siehe Detail unten)
„Wir stehen der Behauptung, dass zufällige Mutationen und natürliche Selektion die Komplexität des Lebens erklären könnten, skeptisch gegenüber. Eine sorgfältige Prüfung der Beweise für Darwins Theorie sollte gefördert werden.“
Der Pathologe und Professor an der Universidad Autónoma de Gadalajara, Raul Leguizamon, M.D., fasste in seinen Worten zusammen, warum die wachsende Zahl von Wissenschaftlern die darwinistische Position des Naturforschers aufgegeben hat: „Ich habe die Erklärung des wissenschaftlichen Widerspruchs zum Darwinismus unterzeichnet, weil ich völlig davon überzeugt bin.“ Mangel an echten wissenschaftlichen Beweisen zugunsten des darwinistischen Dogmas.“29
Wenn wir die Fossilien und die Stratigraphie für sich selbst sprechen lassen, was werden sie uns dann sagen? Zweifellos haben viele Wissenschaftler heute bereits herausgefunden, was Sie gerade gelesen haben!
28 Eine vollständige Liste derjenigen, die die Liste der Dissidenten des Darwinismus unterzeichnet haben und weiterhin unterzeichnen, mit Namen und Institutionen, mit denen sie verbunden sind, finden Sie unter: www.dissentfromdarwin.org/
29 www,discovery.org/scripts/viewD8/index.php?command=view&id=2732 (Januar 2007).
Fossil eines schwangeren Ichthyosaurus (Embryo in der Mitte)
Details zum Embryofossil
KAPITEL 6
A O r i g e m d o s
B i l h õ e s d e A n o s :
Mé t o d o s d e D a t a ç ã o
„Cr i a c i o n i s t a s e h v o l u c i o n i s t a s p o s u e m Bist echt
É A m e s m a p a r a e l s . Con t u d o , a p e r c e p ç ã o d e r e l i d a d e e a i n t e r p r e t a ç ã o d o s
d a d o s p o d e s e r nicht a v e l m e n t e d i f e r e n t e p a r a a m b o s , abhängig von einem p e k t i v a d o
"
DR . Henry Morris
158
Ro c h a s Se m C e r t id ã o d e N a sc im e n to
Gesteine und Fossilien werden nicht mit einem Etikett oder einer Identifikationskarte gefunden, aus der hervorgeht, wann sie entstanden sind. Es war auch kein Forscher anwesend, um ein solches Ereignis zu beobachten, das in der Vergangenheit stattgefunden hätte. Wie bestimmen Sie also das Alter dieser Gesteine und Fossilien? Welche Methoden werden eingesetzt, ihre Annahmen und Grenzen? Wären die mit solchen Methoden ermittelten Daten absolut oder relativ?
Dies sind die Themen, mit denen wir uns in diesem Kapitel befassen werden. Ein gewisses mathematisches Wissen zum besseren Verständnis der Datierungsmethodik kann sehr hilfreich sein.
Foto der Oberfläche des Planeten Mars, aufgenommen vom Rover Spirit (NASA)
U m Po u c o d e T r m in o l o g ia
Verschiedene Bereiche der modernen Wissenschaft wurden genutzt, um Methoden zu entwickeln, die „absolute Daten“ für Gesteine und Fossilien liefern können. Der Wissenschaftsbereich, der versucht, das Alter von Gesteinen, Fossilien und Sedimenten innerhalb eines gewissen Maßes an Unsicherheit, das durch die verwendete Datierungsmethode entsteht, genau zu bestimmen, ist die Geochronologie.
Ein weiterer Bereich der Wissenschaft, der durch den Vergleich und die Katalogisierung von Fossilien feststellen möchte, ob ein Sedimentgestein mit einer geologischen Periode in Verbindung steht, ist die Biostratigraphie. Die Biostratigraphie bestimmt nicht das Alter eines Gesteins. Es positioniert lediglich die Steine innerhalb einer Zeitskala.
Aus den Studien dieser beiden Bereiche geht ein dritter Bereich hervor, der als Chronostratigraphie bekannt ist und dessen Ziel es ist, „absolute Alter“ für Fossilien abzuleiten und die geologische Geschichte unseres Planeten zu bestimmen. Die Chronostratigraphie untersucht auch die geologische Entwicklung von Himmelskörpern, beispielsweise den anderen Planeten im Sonnensystem, wobei der Planet Mars derzeit am meisten erforscht ist.
Einige Methoden bieten Daten an, die oft als „absolut“ beschrieben werden. Das Wort „absolut“ bedeutet in diesem Kontext, dass die Möglichkeit besteht, dass das bewertete Datum korrekt ist, wenn die mit der Methode verbundenen Annahmen korrekt sind und der Grad der durch eine solche Methode verursachten Unsicherheit auf ein Minimum reduziert wird.
Die von den Methoden angebotenen Daten erscheinen in den Zeiteinheiten Ka, Ma und Ga, was Tausende von Jahren (103), Millionen von Jahren (106) bzw. Milliarden von Jahren (109) bedeutet. Einige Veröffentlichungen verwenden die Formen Mya (vor Millionen Jahren), was einfach „vor Millionen Jahren“ bedeutet, und BP (beforepresent), was vor der Gegenwart bedeutet, wobei als „Gegenwart“ das Datum 1950 verwendet wird.
Mein Alter ist:65 wiCLhcrefr conoy
A 0 P G E fc D 0 $ B I L * 0 w 159
Dating-Methoden
Die zur Datierung verwendeten Methoden nutzen im Allgemeinen zwei unterschiedliche Techniken: inkrementelle und radiometrische Techniken, die die Sammlungs- und Analyseprozesse einer bestimmten Art von Probe (Gestein, Fossil oder Sediment) bestimmen. Wir werden hier die wichtigsten Methoden auflisten, die auf diesen verwendeten Techniken basieren, und anschließend eine detailliertere Bewertung jeder einzelnen von ihnen vornehmen.
Inkrementelle Methoden basieren auf der Bewertung von Wachstums-, Bildungs- oder Erosionsraten. Zum Beispiel das jährliche Wachstum von Ringen in Baumstämmen (Dendrochronologie). Radiometrische Methoden hingegen basieren auf den Prozessen des radioaktiven Zerfalls bzw. radioaktiven Zerfalls, die als Alpha-Emission, Beta-Emission und Gamma-Emission bezeichnet werden. Diese Prozesse bewerten die Geschwindigkeit des Zerfalls (oder Zerfalls) radioaktiver chemischer Elemente (Radioisotope).
Alle Datierungsmethoden basieren auf den Annahmen von Anfangsgrößen (Interpretation der Anfangsbedingungen), der Konstanz bestimmter Werte über die Zeit und bestimmten spezifischen Parametern, die mit der Methode verbunden sind, und können daher keine „absoluten“ Alter ermitteln. Wir werden jeden dieser Aspekte behandeln, indem wir die wichtigsten Methoden einzeln betrachten.
Es gibt mehrere Methoden, die in diesem Buch nicht behandelt werden, aber in der wissenschaftlichen Literatur zu finden sind. Der Grund, warum wir nur auf einige der Methoden eingehen, liegt lediglich darin, die wissenschaftliche Problematik im Zusammenhang mit der Datierung von Fossilien und Gesteinen zu veranschaulichen.
Os Mét o d o s Inc r e m e n t a is
Techniken, die inkrementelle Methoden verwenden, ermöglichen die Rekonstruktion von Jahreschronologien, die mit aktuellen oder jüngsten Daten verknüpft werden können. Einige dieser Techniken wurden beispielsweise verwendet, um das Alter von Bäumen sowie das Alter von von Menschen hergestellten Objekten zu bestimmen.
Die Dendrochronologie ist eine bekannte inkrementelle Methode, die anhand der in Baumstämmen gefundenen Jahresringe Daten und klimatische Bedingungen bis vor 3.000 Jahren ermittelt.
Es ist bekannt, dass sich der helle Teil der Ringe normalerweise im Frühling und der dunkle Teil im Spätsommer und Frühherbst bildet. Daher können Wissenschaftler anhand der Anzahl der Schichten und der Dicke jeder Schicht das Alter der Bäume sowie bestimmte Aspekte im Zusammenhang mit dem Klima während der Lebenszeit des Baums abschätzen, beispielsweise die Regenmenge (Niederschlagsindizes). in der Region), längere Dürreperioden, Temperaturen, Brände und Grad der Sonneneinstrahlung (die Sonne ist der Hauptverursacher der Ringbildung).
Jahresringe an einem Baumstamm
(Dendrochronologie)
Blatt Papier
Aluminiumfolie
.führen
Alpha (a)-Emission und Beta (P)-Emission sind niederenergetische Teilchen, die dies können
durch ein Blatt Papier und Aluminium blockiert werden,
bzw. Gamma-Zerfall (y) sind Strahlen hoher Qualität
Energie, die nur durch eine Schicht blockiert wird
dickes Blei.
160 C o m o T i lo ~ C o m
Bohrer, der in der Dendrochronologie verwendet wird, um einen kleinen Zylinder aus einem Stamm zu extrahieren, der die durch das Wachstum des Baumes gebildeten „Ringe“ enthält.
(Foto von Hannes Grobe, 2006. Genehmigung erteilt – Creative Commons CC-BY-SA-2.5)
Möglicher Zusammenhang zwischen skandinavischen Varviten und Schwankungen des Erdmagnetfelds (PSV – Paleomagnetic SecularVariation)
Es gibt Situationen, in denen extreme klimatische Bedingungen während eines normalen Jahreszeitenzyklus das Erscheinen eines neuen Ringes am Stamm des Baumes nicht zulassen. Das Fehlen eines Rings fällt nicht immer auf. Es gibt auch einige Baumarten, die aufgrund ihres starken vertikalen Wachstums eine „falsche Schicht“, eine sogenannte Doppelschicht, bilden.
Varvite-Datierung ist eine weitere inkrementelle Methode, die regelmäßige Erosions- und Ablagerungsraten verwendet. Varvito war zunächst ein Begriff zur Beschreibung der verschiedenen Bestandteile einer jährlichen Sedimentschicht in Gletscherseen. Derzeit bezeichnet der Begriff Varvit die Gesamtheit einer einjährigen Sedimentschicht. Daher handelt es sich bei Varviten um sehr dünne Schichten, die durch schnelle Schichtungs- und Segregationsprozesse entstehen. Einige dieser Schichten entstehen durch die Ansammlung von Sand, Kies oder Schluff (alluviale Ablagerungen); andere durch das Wachstum von Torfmooren und wieder andere durch Ablagerungen, die sich in Seen und Gletschern bilden.
Einige dieser Prozesse finden in jährlichen Zyklen statt und ermöglichen es, eine bestimmte Schicht (oder ein Blatt) einem bestimmten Datum zuzuordnen. Andere treten nicht mehr in dieser Häufigkeit auf, was die Datierung erschwert. Eines der Hauptprobleme bei der Datierung von Varviten ist die aktuelle Annahme, dass Erosions- und Ablagerungsprozesse in dünnen Sedimentschichten im Laufe der aufgezeichneten Geschichte praktisch unverändert geblieben sind. Diese Annahme ist fraglich.
Wie bereits im vorherigen Kapitel erwähnt, variiert die Bildung der Schichten je nach Geschwindigkeit des Wassers und der darin enthaltenen Sedimente. Das gleiche Prinzip gilt für die Bildung von Varviten.
Erdmagnetismus-Datierung ist eine Methode zur Messung der Variation des Erdmagnetfelds, bekannt unter dem Akronym PSV (Paleomagnetic SecularVariation).
Diese Schwankungen des Erdmagnetfelds werden in ferromagnetischen Mineralien (in einigen Veröffentlichungen magnetisches Ferrim) aufgezeichnet, die in Sedimentablagerungen und in vulkanischer Lava erstarrt sind. Metamorphe und magmatische Gesteine sind die Hauptquellen der mit dieser Datierungsmethode analysierten Proben.
Die Datierungsmethode des Erdmagnetismus ist keine völlig unabhängige Datierungsmethode, da sie vergleichend ist. Das einem Gestein zugeordnete Alter von mehr als zehntausend Jahren hängt von anderen Datierungen mit radiometrischen Methoden ab.
Für die neuere Datierung, beispielsweise von keramischen Artefakten, die durch menschliche Aktivitäten hergestellt wurden, können die Variation des Magnetfelds sowie seine Neigung und Deklination mit einer bekannten Zeitskala verwendet werden.
Die sogenannten magnetischen Nord- und Südpole sind nicht festgelegt. Sie haben
161
wird seit 1831 untersucht und abgegrenzt.1 Diese Variation erzeugt eine Magnetfeld-Variationskurve für jeden Ort auf dem Planeten. Wenn ein Keramikstück gefunden wird, wird die verbleibende Magnetisierung anhand der Variationskurve ausgewertet und erhält so eine einfache Ablesung des entsprechenden Datums. Diese Methode wird in der Archäologie zur Datierung verwendet und ist als Archäomagnetismus bekannt.
Mehrere andere moderne Methoden verwenden Elektronen, die mit einer Struktur interagieren. Wenn beispielsweise Zahnschmelz gebildet wird oder sogar eine Keramik gebrannt wird, nehmen Elektronen ihre natürlichen Positionen ein. Bei natürlicher radioaktiver Aktivität kommt es zu einer Ansammlung von Elektronen in den Hohlräumen von Bauwerken.
Eine der Techniken zum Nachweis dieser Ansammlung von Elektronen nutzt Mikrowellenstrahlung (ca. 10 GHz), bei der die angesammelten Elektronen in diesen Bereichen ein Signal im Spektrum aussenden, das nachgewiesen und gemessen werden kann. Diese Technik ist als elektronische Spinresonanz (ESR) bekannt.
Eine weitere Technik entfernt diese Ansammlung von Elektronen durch Erhitzen. In einem Labor wird eine Probe auf eine Temperatur von ca. 775 Kelvin (ca. 500 °C) erhitzt. Wenn Elektronen diese Hohlräume (eine sogenannte Falle) „verlassen“, geben sie Lichtenergie ab, die nachgewiesen werden kann. Durch den Vergleich der Leuchtkraft der Probe mit der Leuchtkraft der Laborstandards kann ihr „Alter“ beurteilt werden. Diese Methode ist als Thermolumineszenz (TL) bekannt.
Bei diesen beiden letzten Methoden sind drei entscheidende Probleme noch nicht beseitigt: (1) Verschiedene Umstände können auch zur Ansammlung von Elektronen führen, ohne dass der eigentliche Ursprung in der Radioaktivität liegt, (2) die Strahlungsmenge, die die zu analysierende Probe empfängt, hängt davon ab auf der Strahlungsquelle, die nicht immer für die Auswertung verfügbar ist, und (3) es wurde keine Technik entwickelt, um zu bestimmen, wann die „Uhr“ der Probe zu ticken begann. Ohne die Beseitigung dieser Ursachen ist die Datierung einer Probe mit diesen Methoden im Allgemeinen gefährdet.
Eine letzte nicht-radiometrische Methode, die Aufmerksamkeit verdient, ist die Aminosäuredatierung. Diese Methode wird für aktuelle Daten verwendet.
Aminosäuren sind die Bestandteile komplexer organischer Moleküle, wie bereits in Kapitel 4 gesehen. Es ist bekannt, dass Aminosäuren aufgrund der Polarisation des Lichts bei der Wechselwirkung mit diesen Molekülen in zwei symmetrischen Formen existieren, die als rechtsdrehend und linksdrehend (rechts und links) bezeichnet werden . (Isomerie). Es ist auch bekannt, dass diese Moleküle ab dem Zeitpunkt des Absterbens des Organismus einem Abbauprozess unterliegen.
In den Proteinen lebender Organismen finden wir nur die Formen
1 D.R. Barraciough, Spherical Harmonic Analysis of the Geomagnetic Field for Eight Epochs between1600 and 1910, Geophysics J. R. Astr. Soc., 36, 1974, S. 497-513.
Geografischer Nordpol (NOAA/Pacifk Marine
Umweltlabor)
Die rote Linie zeigt die Südpolwanderung
Magnetfeld während der letzten Jahre (Deklination).
Detail, das die Wanderung des magnetischen Südpols zeigt
Rote Linie - Deklination - - beobachtete Variationen von
1831 bis 2005; Gelbe Linie – Variationen
berechnet von 1600 bis 2005.
162
Serin (Aminosäure) linksdrehende Aminosäure. Wenn der Organismus stirbt, gehen die Aminosäuren in der linksdrehenden Form nach und nach in die rechtsdrehende Form über, bis ein Gleichgewicht erreicht ist.
Wenn man das Verhältnis der linksdrehenden zu rechtsdrehenden Formen im Organismus und die Geschwindigkeit der Transformation in Richtung Gleichgewicht kennt, kann man wissen, wie lange der Organismus schon tot ist.
Linksdrehende Form Rechtsdrehende Form Auch diese Methode ist nicht unproblematisch. Die Faktoren, die in-(links) (rechts) zu einer fehlerhaften Datierung einer Probe führen, sind: (1) der pH-Wert (der pH-Wert).
ist eine ungefähre Zahl zwischen 0 und 14, die angibt, ob eine Lösung sauer (pH<7), neutral (pH=7) oder basisch/alkalisch (pH>7) ist), (2) die Temperatur und (3) die Feuchtigkeit.
Alle diese Datierungsmethoden verwenden als Referenz Daten, die der Geschichte bereits bekannt sind. Seine Hauptfunktion besteht eher darin, ein Datum zu bestätigen, als dieses Datum selbst festzulegen.
Kommen wir nun zu Methoden, die radiometrische Techniken zur Datierung nutzen.
O Bá s ic o d o s Mé t o d o s Radio m é t ric o s
Die Entwicklung radiometrischer Methoden lässt sich aus mehreren wichtigen historischen Entdeckungen verstehen:
® 1895 – Wilhelm Röntgen entdeckte Röntgenstrahlen.• 1898 – Pierre und Marie Curie prägten den Begriff Radioaktivität.® 1899 – J.J. Thompson entdeckte Elektronen.® 1911 – Ernest Rutherford beschrieb die Natur des Atomkerns.• 1914 – Ernest Rutherford entdeckte das Proton.® 1935 – James Chadwick entdeckte Neutronen.
Frühe Datierungsmethoden unter Verwendung von Radioisotopen. Bei radioaktiven Zerfallsprozessen ein radioaktives Element
(Vater) wird zu einem radiogenen Element (Sohn). Beispielsweise wandelt sich das radioaktive Isotop Kalium-40 (40K – fest), das instabil ist, durch Zerfall (Alpha-Emission) in Argon-40 (40Ar – Gas) oder Calcium-40 (40Ca – fest) um.
Radiometrische Methoden basieren auf Berechnungen, die sich auf die Anfangsmengen (Annahme) der Elemente, die den Zerfallsprozess durchlaufen haben, und die durch Labormessungen ermittelten Mengenwerte (Beweis) beziehen. Im Allgemeinen werden Datierungsmethoden mit Radioisotopen als unfehlbare Beweise für die alte Geschichte unseres Planeten (Millionen oder Milliarden Jahre) präsentiert. Visa
Wenn V
* 'N v " * 0 - - i é # t f
Isomerie – linke und rechte Formen
A 0 i- j r I-' 163
Da diese Methoden ein „absolutes“ Alter für eine Probe angeben, wurden die Ergebnisse als korrekt angesehen.
Um zu verstehen, wie radiometrische Datierungstechniken funktionieren, schauen wir uns etwas mehr historische und wissenschaftliche Informationen an.
Zu Beginn des 20. Jahrhunderts erforschten und beschrieben Ernest Rutherford, Frederick Soddy und Henri Becquerel den Prozess der nuklearen Desintegration. Unter Verwendung radioaktiver Verbindungen von Uran (U) und Thorium (Th) entwickelten sie das Konzept der sogenannten Halbwertszeit.
Das Konzept der Halbwertszeit ist für Datierungsmethoden von grundlegender Bedeutung. Im Wesentlichen definiert es die charakteristische Zeit, in der 50 % (die Hälfte) einer radioaktiven Probe zerfallen. Es kann wie folgt betrachtet werden:
N i- N 1 N -» i- N ->--- » i-1“ N,2 4 8 - l i >
wobei N die Anfangsmenge ist. Die Zerfallsrate dN/dt kann experimentell ermittelt werden
direkt proportional zur Anzahl der verbleibenden Radioisotope,
dK = - X N .dt
Wenn wir die obige Gleichung integrieren (siehe Anhang I), erhalten wir den Ausdruck
N = N eO wobei X die Materialzerfallskonstante ist.
Die Halbwertszeit t1/2 ergibt sich aus dem Ausdruck
r i /2 =
Lassen Sie uns diese Gleichungen in die Praxis umsetzen. Wissenschaftler müssen kleine Mengen, Teile pro Million (ppm), Teile pro Milliarde (ppb) und Teile pro Billion (ppt), nachweisen, um die Zerfallskonstante (X) einer Probe zu bestimmen. Beispielsweise ergibt die im Labor gemessene Zerfallskonstante für Kalium-40 eine Halbwertszeit von einer Milliarde zweihundertsechzig Millionen Jahren (1,26x109 Jahre).
Mit anderen Worten: Die Zeit, die benötigt wird, um 1/2 kg Kalium-40 von ursprünglich 1 kg zu zersetzen, beträgt 1,26 x 109 Jahre.
Daher beträgt die Halbwertszeit, die Kalium-40 zugeschrieben wird
Marie Curie. sie und ihr Mann
Pierre Curie prägte den Begriff „Radioaktivität“.
tm - 1,26xl09 Jahre.
164
Die Zerfallskonstante jedes radioaktiven chemischen Elements wurde untersucht und katalogisiert. Wenn man die Zerfallskonstante kennt, kann man die Halbwertszeit ermitteln. Es ist bekannt, dass jedes radioaktive chemische Element eine andere Halbwertszeit hat (Kohlenstoff-14 hat beispielsweise eine Halbwertszeit von 5.730 Jahren).
Alle bekannten radiometrischen Methoden nutzen das Konzept der Halbwertszeit des ursprünglichen Elements, um das Alter zu ermitteln.
Doch auch wenn Ergebnisse experimentellen Ursprungs vorliegen, sind immer noch drei Grundannahmen notwendig, damit eine radiometrische Methode funktioniert:
1. Dass die Zerfallsgeschwindigkeit über die Zeit konstant ist.2. Das sind die ausgewerteten Isotopenmengen in einer Probe
Datierte Daten wurden im Laufe ihrer Geschichte weder durch Hinzufügung noch durch Entfernung geändert.
3. Dass bei der Bildung des ursprünglichen Gesteins (datierte Probe) auch eine bekannte Menge des resultierenden Isotops vorhanden war.
Wie wir sehen werden, ergeben sich die größten Schwierigkeiten bei radiometrischen Datierungsmethoden aus den Annahmen 2 und 3. Wir müssen noch veranschaulichen, worüber wir über stabile Isotope und radioaktive Isotope sprechen werden.
Isotope sind Atome desselben chemischen Elements, deren Kerne die gleiche Ordnungszahl (Z), aber unterschiedliche Atommassen (A) haben.
Das chemische Element Kohlenstoff (C) hat beispielsweise sieben Isotope:
Halbwertszeit p
6 radioaktiv 19,45 Sekunden
Radioaktive UEC 20,30 Minuten 12 P
6~ stabil13p
6V stabil14p
6 radioaktiv 5730 Jahre15 p
6 radioaktiv 2,40 Sekunden16 S
6 radioaktiv 0,74 Sekunden
Nur 12gC und 136C sind stabil, d. h. sie zerfallen nicht (14gC, Elternelement Graphit (Kohlenstoff), zerfällt in 14?N, Kinderelement). Beachten Sie, dass alle
Kohlenstoffisotope haben die gleiche Ordnungszahl sechs. Was sich voneinander unterscheidet, ist die Anzahl der Neutronen im Kern.
Stabile Isotope behalten im Laufe der Zeit die gleiche Atomstruktur bei. Radioaktive Stoffe verändern im Laufe der Zeit ihre atomare Struktur durch einen Zerfallsprozess, der im Kern des chemischen Elements stattfindet.
165
DIE RADIOM-METHODEN
Wir werden hier nicht auf alle Gesteinsdatierungsmethoden eingehen, die Radioisotope verwenden, sondern nur auf einige wenige. Im letzten Abschnitt beschäftigen wir uns speziell mit der Kohlenstoff-14-Methode, die mit der Datierung von organischem Material zusammenhängt.
Außerdem werden in den Gleichungen der Zerfallsreaktionen die anderen erzeugten Teilchen (wie Neutrinos und Antineutrinos) und die mit den Prozessen verbundenen Energiemengen nicht auftauchen. Das hier verwendete Format für die Gleichungen, die die Reaktionen angeben, ist das gleiche wie in der konventionellen Literatur.
Emission a: 2 Protonen + 2 Neutronen Emission |3: 1 Elektron
ja? -> \ und + Emission,
Dabei ist/l die Atommasse oder das Atomgewicht (Gesamtzahl der Protonen und Neutronen im Atomkern) und Z die Ordnungszahl (Anzahl der Protonen im Kern oder die Anzahl der Elektronen, die das Atom hat). „E“ ist das ursprüngliche Element (übergeordnetes Element) und „e“ ist das beim Zerfall entstandene Element (untergeordnetes Element). ^ „Emission“ stellt die Art des Zerfalls dar (Alpha, Beta oder Gamma).
Da die Mengen der analysierten chemischen Elemente sehr gering sind, wird die Technik der Massenbeschleunigungsspektrometrie verwendet. Im Massenspektrometer werden Stoffe durch Beschuss elektrisch geladene Atome (Ionen) erzeugt. Diese Atome durchqueren ein Magnetfeld, das je nach Masse und elektrischer Ladung des Ions eine unterschiedliche Flugbahn erzeugt. Auf diese Weise werden die Isotope identifiziert und ihre Mengen gemessen (siehe nebenstehende Abbildung).
Aus diesen Messungen können zwei verschiedene Techniken verwendet werden, um das Probendatum zu ermitteln. Die erste Methode ist die einfache oder allgemeine radiometrische Datierung, bei der von einer Anfangsmenge des untergeordneten Elements in der Probe ausgegangen wird. Kurz gesagt kann das Alter einer Probe mithilfe der folgenden Gleichung berechnet werden:
Heizgerät zum Verdampfen der Probe
/ Elektronenstrahl zur Ionisierung der Probe
aber posadoin jetord a . .am ostra j/
Magnetfeld zur Trennung von Partikeln basierend auf dem Verhältnis von Masse/elektrischer Ladung
beschleunigte Teilchen im Magnetfeld
Alter = g-303. r1/2 log NçN .
, auf was
Nr ist die zugelassene Anfangskonzentration des radioaktiven Elements und JV ist die tatsächlich im Labor gemessene Konzentration. tm ist die Halbwertszeit des Elements.
Eine weitere optionale Gleichung verwendet die aktuell im Labor gemessenen Konzentrationen sowohl des übergeordneten als auch des untergeordneten Elements:
Massenbeschleunigungsspektrometrie
'a/a
166 cm
P / D, Isochron-Liniendiagramm y = mx + b, wobei m das Alter des Gesteins bestimmt. m = ex' - 1. Daher ist t- 1/Xln (m + 1).
zwischen 3
D ist die Konzentration des Tochterelements, P die im Labor gemessene Konzentration des Mutterelements und t y2 ist die Halbwertszeit.
Zwei Annahmen gefährden diese Technik: 1. Ausgangsbedingung: die zugelassene Menge an Tochterisotopen im
Das Entstehungsmoment des Gesteins ist Null (oder unabhängig bekannt und kann somit in Berechnungen kompensiert werden).
2. Kontamination: Es sind keine Mengen an Mutter- oder Tochterisotopen in die Probe eingedrungen oder haben diese verlassen.
Wenn eine dieser beiden Annahmen nicht zutrifft, ist das berechnete Datum falsch.
Eine zweite Technik wurde in den 60er Jahren vom Geologen Nicolaysen2 vorgeschlagen, um dieses Problem zu vermeiden.3
Diese Technik ist als Isochron bekannt und kann verwendet werden, wenn das Tochterelement zusätzlich zu dem, das durch den Zerfall des Mutterelements entsteht, ein stabiles Isotop aufweist. In diesem Fall muss theoretisch nicht von der anfänglichen Menge des Tochterelements bei der Entstehung des Gesteins ausgegangen werden, da zum Zeitpunkt der Kristallisation das Verhältnis zwischen dem stabilen Isotop und dem radioaktiven Isotop unabhängig vom Mutterelement ist .
Mit fortschreitender Zeit beginnen sich die Mengen zu ändern. Durch den Zerfall nimmt die Menge der Isotope des Mutterelements ab und die Menge der radioaktiven Isotope des Tochterelements zu.
Wir können diese Proportionen allgemein gleichsetzen (siehe Anhang J für die Ableitung der Isochronengleichung).
J2- - [e*/-\\P - + P.o D , Dj D, ’ q
D ist die Konzentration des radioaktiven Isotops des Tochterelements und Do seine Anfangskonzentration, D. ist die Konzentration des stabilen Isotops relativ zum Tochterelement und P ist die Konzentration des Mutterisotops.
Der erste Term der Gleichung, D/Dj; stellt die Menge an radioaktivem Isotop dar, die sich im Laufe der Zeit angesammelt hat. Der dritte Term in der Gleichung, DJDjt, stellt die Anfangsmenge des radioaktiven Isotops dar. Der zweite Term stellt die kumulative Menge des übergeordneten Elements dar.
Der m-Wert, der die Steigung der in einem Isochronendiagramm wiedergegebenen Geraden bestimmt, gibt das Alter des Gesteins an (siehe Diagramm oben).
Die Variablen der Gleichung können in den Methoden leicht identifiziert werden
2 L. 0. Nicolaysen, Grafische Interpretation diskordanter Altersmessungen an metamorphen Gesteinen, Annals of the New York Academy of Sciences, 1961, Bd. 91, S. 198-206.
3 G. Brent Dalrymple, Das Zeitalter der Erde. Kalifornien, Stanford University Press, 1991, S. 72-74.
0 I t\ 167
der Datierung durch die Elemente der unten dargestellten Tabelle. Darin sind die Elemente der Methoden aufgeführt, die wir im Folgenden besprechen:
p D D1Halbwertszeit (109 Jahre)
147Sm 143Nd 144N d 106187R e 1870 s 1860 s 43
87Rb 87Sr 86Sr 48,84°K 40Ar 36Ar 1,25
176Lu 176Hf 177Hf 0,359
232Th 208Pb 204Pb 14238JJ 2° 6 p b 2° 4 p b 4,47235JJ 207Pb 2 ° 4 p b 0,704
Alle Methoden, die diese Technik verwenden, gehen davon aus, dass es unter den gesteinsbildenden Elementen eine unbekannte Menge eines stabilen Isotops und eines weiteren radioaktiven Isotops des Tochterelements sowie eine Menge Isotope des Mutterelements gibt. Sie gehen außerdem davon aus, dass die Menge des stabilen Isotops während der gesamten Existenz des Gesteins konstant geblieben ist.
Damit die Technik funktioniert, müssen die zur Altersbestimmung verwendeten Proben aus demselben Gestein entnommen worden sein. Es können auch mehrere Gesteine aus derselben bekannten Quelle verwendet werden.
Damit die Isochronenmethode funktioniert, müssen jedoch drei notwendige Bedingungen erfüllt sein:
1. Alle Proben müssen das gleiche Alter haben.2. Alle müssen das gleiche Anfangsverhältnis haben.
der Tochterisotope.3. Es sollte eine große Variation im Ausgangsisotop/
Tochterisotop in den Proben.
Obwohl davon ausgegangen wird, dass die Isochronenmethode das Problem der anfänglichen Menge an Tochterisotopen in einer Probe löst, ist sie nicht frei von Annahmen und anderen Problemen.4
Die radiometrische Datierungsmethode ist eine Wissenschaft von großer Präzision hinsichtlich der verwendeten Techniken. Offensichtlich kann es so sein
Frequenz (MHz)
Berechnung der spektralen Häufigkeitsfluoreszenz
natürlich von 85Rbe87Rb (siehe Grafik unten, die
Zeile D1).
S2P3/2___/-'■
D2780 nm
Struktur des Grundzustands und des ersten
Erregungszustand von 37Rb.
4 G. Faure, Principles of Isotope Geology, 2. Aufl., New York, John Wiley and Sons, 1986, Kapitel 7. Siehe auch Y. F. Zheng, Influences of the Nature of the Initial Rb-Sr System on Isochron Validity, Chemical Geology, 80, 1989, S. 1 -1
168
Probleme bei der Behandlung einer Probe (Kontamination) und bei der Interpretation der Ergebnisse (Widersprüche). Aber das Hauptproblem sind wiederum die Annahmen.
Damit die Berechnungen zuverlässig sind, müssen alle Methoden zugeben, dass in der Vergangenheit nichts passiert sein kann, was zu einer Änderung der Mengen der untersuchten Elemente und sogar der verwendeten Konstanten (z. B. der Halbwertszeit des Elements) geführt hätte.
Beispielsweise könnte eine Anomalie zu einer schnellen Ansammlung von Tochterisotopen führen, dies würde jedoch nicht über einen langen Zeitraum hinweg erfolgen. Die Annahme, dass Gesteine über Äonen hinweg völlig geschlossene Systeme sind, muss noch bewiesen werden. Es gibt in der modernen Wissenschaft nichts, was völlig isoliert wäre. Kommen wir daher zum Studium der wichtigsten Methoden der radiometrischen Datierung und ihrer Besonderheiten.
Samarium-Neodym (Sm-Nd) Diese beiden Elemente gehören zur Lanthanoidreihe (alle 15).
Elemente dieser Reihe haben ähnliche Eigenschaften wie das silberfarbene Metall Lanthan im Periodensystem. Diese Elemente werden auch seltene Metalle genannt, basierend auf der alten und falschen Annahme, dass sie in der Natur selten vorkommen. Radioaktives Samarium zerfällt durch Alphaemission zu Neodym.
14762Sm -> 14360Nd + 42a Halbwertszeit: 106 Ga
Die Halbwertszeit von Samarium beträgt 106 Milliarden Jahre, etwa zweieinhalb Mal länger als die Halbwertszeit anderer Radioisotope. Die beiden Isotope (Sm und Nd) kommen in allen Gesteinen und Mineralien (Silikate, Phosphate und Carbonate) in Teilen pro Million vor. Diese geringen Mengen werden seit den 1980er Jahren mithilfe der Massenspektrometrie zur Gesteinsdatierung gemessen. Im Allgemeinen ist der Konzentrationsunterschied zwischen Sm und Nd in Gesteinen sehr gering, da die beiden Elemente chemisch sehr ähnlich sind.
Das natürliche Verhältnis zwischen Sm und Nd in Proben liegt zwischen 0,1 und 0,5, mit einem geringen Überschuss an Nd. Da in allen Proben Mengen an 143Nd vorhanden sind, basiert diese Methode bei der Datierung auf dem stabilen Isotop 144Nd.
Die Sm-Nd-Datierungsmethode scheint gegenüber anderen Methoden drei Vorteile zu bieten:
1. Die selektive Atomwanderung während der Gesteinserwärmung oder -metamorphose hat aufgrund ihrer Ähnlichkeiten keinen Einfluss auf das Sm-Nd-Verhältnis.
2. Da die Halbwertszeit von Sm 106 Milliarden Jahre beträgt, hat es sich als nützlich für die Datierung von Proben erwiesen.
169
gelten als sehr alt, wie felsige Meteoriten, Mondgestein und präkambrische Lava.
3. Es scheint unabhängig von Erosion, Metamorphismen und sogar Wiederschmelzen zu sein, die bei der Probe aufgetreten sind.5
Zu den mit dieser Methode datierten Proben gehören metamorphe Gesteine, alter Basalt und steinige Meteoriten.
Im Fall von Meteoriten wird das 143Nd/144Nd-Verhältnis durch die CHUR-Methode (Chrondritic Uniform Reservoir) modelliert, bei der es sich um eine Näherung des Materials handelt, das angeblich das Sonnensystem gebildet hat und das durch die Analyse von Meteoriten bestimmt wurde.
Die CHUR-Methode wird auch verwendet, um Informationen für Datierungsmodelle von Erdmantelgesteinen bereitzustellen (unter Verwendung der Differenz der Probenanteile im Verhältnis zum CHUR); Bei dieser Methode wird von einer Entwicklung des Systems ausgegangen (berechnet im Verhältnis zum CHUR) und es werden einige andere Faktoren extrahiert (z. B. Granit ohne radiogenes Nd).
Rhenium-Osmium (Re-Os) Radioaktives Rhenium zerfällt durch Betaemission in Osmium.
Nahaufnahme eines Basaltgesteins
(Farbsättigung aufgrund der Art von
Beleuchtung verwendet)
1877_Re ->7a187
76 Halbwertszeit: 43 Ga
Die Halbwertszeit von Rhenium beträgt etwa 43 Milliarden Jahre. Re und Os kommen normalerweise in Silikatmineralien vor.
in Mengen von weniger als einem Teil pro Milliarde. Bei vielen Eisenmeteoriten ist die Häufigkeit bis zu tausendmal höher.
Zur Kalibrierung wird das stabile Isotop 1860s verwendet. Mithilfe der Isochronenmethode wird dann die anfängliche Menge an 187OS in den Proben bestimmt.
Das Isotop der 1870er-Jahre spielt eine grundlegende Rolle in Theorien zum Aussterben der Dinosaurier, vor allem im Hinblick auf einen möglichen Asteroiden- oder Meteoriteneinschlag. Nach dieser Theorie wäre vor 65 Millionen Jahren ein Asteroid mit einem Durchmesser von etwa 10 km mit der Erde kollidiert und damit das Mesozoikum beendet.
Die Entwicklung dieser Theorie ist auf eine Tonschicht an der Grenze zwischen Kreide und Tertiär zurückzuführen, die eine hohe Konzentration des Elements Iridium (Ir) aufweist, das wahrscheinlich außerirdischen Ursprungs ist. In dieser Schicht findet sich auch ein kleiner Anteil von 1870er/1860er Jahren, der sich von dem Anteil unterscheidet, der im Vergleich in den Gesteinen der Erdkruste zu finden ist. Es ist eine bekannte Tatsache, dass nichtmetallische Meteorite einen geringeren Anteil an 1870ern aufweisen als Erdgesteine. Die Menge der gefundenen 1870er Jahre
Illustration eines Asteroideneinschlags
5 A. Dicking, Radiogene Isotopes Geology, Cambridge University Press, New York, 1995, p. 86.
170
Einfache kubische Atomstruktur mit einer Verunreinigung an einem Kristallgitterplatz (rot)
Augengneis, Feldspat ca. 4cm lang.
(Rio de Janeiro, Foto von Eurico Zimbres)
In dieser Schicht wurde angenommen, dass es von einem Meteoriten stammt. Bei dieser Interpretation werden neben vielen unbekannten Variablen außer Acht gelassen,
außer den Originaldaten auch andere wichtige Faktoren, die die Ursache für die in der Tonschicht gefundenen Daten sein könnten (z. B. ein vulkanischer Ursprung dieser Schicht, Mischung und Fraktionierung innerhalb der Schicht selbst).
Rubidium – Strontium (Rb-Sr)Rubidium (Rb) erscheint im Periodensystem in derselben Spalte wie Kalium
(K) und Natrium (Na), die wie die anderen nur ein freies Elektron in der letzten Schicht haben. Diese Ähnlichkeit führt dazu, dass Rb in geringen Mengen in Mineralien vorkommt, die auch K und Na enthalten.
Strontium ähnelt ebenfalls Kalzium (Ca) und erscheint normalerweise als Verunreinigung an einer Stelle im Rubidium-Kristallgitter. Rubidium (87Rb) zerfällt durch Betaemission in Strontium (87Sr).
°737Rb -> 8736Sr + 0.J* Lebenszeit: 48,8 Ga
Auch bei dieser Methode ist die Isochronentechnik von wesentlicher Bedeutung, da sie von der anfänglichen Sr-Menge im zu datierenden Gestein abhängt. Diese Methode wird im Allgemeinen verwendet, um metamorphe Gesteine, die als alt gelten, wie etwa Gneis, zu datieren.
Die Migration von radiogenem 87Sr in und aus Mineralien stellt ein echtes Problem für die Methode dar. Ein weiteres Problem hängt mit Druck und Temperatur zusammen.
Mit der Rb-Sr-Methode datierte Gesteine waren extremen Drücken und Temperaturen ausgesetzt. Eine mäßige Erwärmung von 100 °C auf 200 °C beeinflusst die Bewegung der Rb- und Sr-Atome im Gestein und beeinflusst somit dessen Datierung. Es wurden mehrere mathematische Modelle entwickelt, um diese Variablen zu berücksichtigen und den Grad der Unsicherheit zu verringern.
Im Allgemeinen wird die Rb-Sr-Datierungsmethode zur Datierung von Gesteinen verwendet, die aus Magma (Eruptivgestein) entstanden sind. Es wird angenommen, dass diese Gesteine neu sind und dass ihre „inneren Uhren“ zurückgesetzt wurden. Diese Methode wurde auch zur Datierung von Sedimentgesteinen verwendet, da es sich dabei um Gesteine handelt, die aus Sedimenten anderer bereits existierender Gesteine entstanden sind. Aufgrund der Tatsache, dass es sich bei Sedimentgesteinen um offene Systeme handelt, in denen die Migration von Atomen sehr einfach ist (Sr wandert, wie bereits erwähnt, leicht), sind die diesen Gesteinen mit der Rb-Sr-Methode zugeordneten Daten höchst fraglich.
Kalium – Argon (K – Ar) Dies kann als eine der am häufigsten verwendeten Methoden angesehen werden. Sie existieren
Dafür gibt es mindestens drei Gründe: (1) Argon (Ar) ist ein Edelgas, das leicht aus geschmolzenem oder erhitztem Gestein entweicht. Also die Präsenz
von Argon-40 (Kindprodukt von Kalium-40) stellt im Vergleich zu den anderen Methoden kein so großes Problem dar. (2) Kalium (K) ist das siebthäufigste Element in der Erdkruste (ca. 2,6 %) und kommt leicht in Gesteinen und Mineralien vor. (3) Die Halbwertszeit von Kalium-40 erleichtert den Nachweis messbarer Mengen an Kalium und Argon auf einer einheitlichen Zeitskala.
Etwa 11 % des Kaliums (40K) zerfallen durch Einfangen eines Elektrons in Argon (40Ar).
4019K + 0 je -> 4018Ar Halbwertszeit: 1,25 Ga
Der überwiegende Teil des Kaliums (40K) zerfällt durch Betaemission in Calcium (40Ca).
4019K -> 4020 Ca + „ ^ Halbwertszeit: 1,25 Ga
Diese zweite Reaktion ist für die radiometrische Datierung aufgrund der großen Menge an Calcium-40 in der Natur von geringer Bedeutung. Eine Gesteinsprobe kann durch Bestimmung (Messung) der Menge an angesammeltem Argon-40 datiert werden.
Argongas wirkt bei dieser Datierungsmethode sowohl als Hilfsmittel als auch als Hindernis. Von allen Gasen, aus denen die Erdatmosphäre besteht, sind etwa 1,29 % Argon. Daher ist es praktisch überall vorhanden. Da Argon ein inertes Gas ist (es reagiert nicht mit anderen chemischen Elementen), kann es leicht in ein Gestein eindringen oder aus ihm herauskommen.
Die Schwierigkeit, die Menge an Argon zu messen, die nur durch den Zerfall von Kalium entsteht, ohne mögliche Kontamination, ist immens. Es wird auch zugegeben, dass die Menge an Argon in der Erdatmosphäre während der verschiedenen geologischen Epochen konstant geblieben ist.
Der Versuch, den Teil, der sich auf atmosphärisches Argon bezieht, von der Gesamtmenge in einem Gestein abzuziehen, war einer der Versuche, die Methode zuverlässiger zu machen.
Einige Wissenschaftler haben vermutet, dass Argon in der kristallinen Struktur des Gesteins gefangen ist, wie ein „Vogel im Käfig“.6 Abhängig von der Gesteinsart, deren Erze Argon enthalten, herrschen jedoch Temperaturen in der Größenordnung von 150 °C bis Damit Argon innerhalb der Probe wandern kann, sind Temperaturen von 550 °C erforderlich.7 Zur Veranschaulichung: Das im Feldspat enthaltene Argon eignet sich aufgrund des großen Argonverlusts bei niedrigen Temperaturen nicht für die Datierung.8
B ich 171
6 GB Dalrymple und M.A. Lanphere, Potossium-Argon Doting, W.H. Freeman and Co., San Francisco, 1991, S. 91,
7 v. Chr. Plummerand D. McGeary, Physical Geology, Wm C. Brown Publishers, New York, 1996, p. 170.8 G. Faure, Principles of Isotope Geology, John Wiley & Sons, New York, 1986, p. 70.
Gestein, das Glimmer enthält
172 C f, V F Í5 O
Die Annahme, dass Argon in der kristallinen Struktur des Gesteins „gefangen“ geblieben wäre, ist vor allem deshalb fraglich, weil der Atomradius von Argon, 1,9 A (1,9 Angström oder 1,9 x 1010 m), in der gleichen Größenordnung liegt wie die Abmessung des gefundenen Abstands im Fadenkreuz typischer Kristalle. Mit steigender Temperatur ermöglichen sowohl die Ausdehnung der Kristallgitter als auch die Atomschwingung die Bewegung „loser“ Atome im Kristall.
Kristalline Strukturen, die radioaktives Kalium enthalten, werden mit der Zeit viele defekte Latices aufweisen und es für Argon noch einfacher machen, in die Probe hinein und aus ihr herauszukommen.
Das chemische Element Kalium kommt sehr häufig in Glimmer, Feldspat, Amphibole und Mineralien im Ton vor, was die Verwendung dieser Datierungsmethode in Proben ermöglicht hat, die als sehr „jung“ gelten und bis zu 6.000 Jahre alt sind.
Argon-Argon (Ar - Ar) Dies ist eine alternative Methode zur Kalium-Argon-Methode. Der Datierungsprozess erfordert, dass eine Probe in ein Gefäß gegeben wird
Atomreaktor und wird von einem intensiven Strom schneller Neutronen bombardiert. Dabei wird eine bestimmte Menge nicht radioaktives Kalium-39 unter Abgabe eines Protons in Argon-39 umgewandelt.
3919K + !0n -> ^jgAr + ^p Halbwertszeit: 265 Jahre
Das 40Ar/39Ar-Verhältnis kann mittels Massenbeschleunigungsspektrometrie präzise gemessen werden.
Es wird angenommen, dass die Menge der aus den 39K-Atomen gebildeten 39Ar-Isotope proportional zur ursprünglichen Menge von 40K ist. Daher wird das 40Ar/39Ar-Verhältnis einer mit einem Neutronenstrahl beschossenen Probe nach der Kalibrierung zur Altersbestimmung verwendet. Es ist wichtig zu beachten, dass 39Ar (Argon-39) in der Natur nicht vorkommt. Es wird künstlich hergestellt. Und seine Halbwertszeit beträgt nur 265 Jahre.
Der Ar-Ar-Methode werden im Allgemeinen mehrere Vorteile zugeschrieben. Beispielsweise wird für die Datierung nur die Menge eines Isotops benötigt, wodurch Probleme mit der Probeninhomogenität vermieden werden. Dies ermöglicht die Analyse kleiner Proben wie Mondgestein und Meteoriten.
Ein weiterer Vorteil besteht darin, Informationen über Veränderungen zu erhalten, die in der Vergangenheit aufgrund möglicher Temperaturänderungen (Erwärmung) am Gestein stattgefunden haben. Die Methode ermöglicht es, beim Erhitzen einer Probe die Menge an 40Ar/39Ar zu ermitteln.
Die Hauptprobleme ähneln denen der Kalium-Argon-Methode. Es besteht auch das Problem der Bombardierung der Probe mit Neutronen
13 I 173
das mehrere andere Isotope von Argon produziert. Diese Kernreaktionen sind bisher nicht gut verstanden und müssen berücksichtigt werden, damit die ermittelten Altersangaben zuverlässig sind.
Lutetium - lláfnium (Lu - Hf)Diese Methode weist eine Reihe von Schwierigkeiten auf, die ihre Wirksamkeit eingeschränkt haben
verwenden. Die Seltenheit von Lutetium-176 und seine lange Halbwertszeit machen den Nachweis und die Analyse sehr schwierig. Lutetium-176 zerfällt durch den Prozess der Betaemission in Hafnium-176.
17671Lu -> 17672 Hf + *.iP Halbwertszeit: 35 Ma
Diese Methode könnte in Zukunft bei der Gewinnung von Informationen über die Erdkruste hilfreich sein.
Uraninit (Urandioxid – UO.J
Uran – Thorium – Blei (U/Th – Pb) Diese Methode ist eine der ältesten und raffiniertesten. ich glaubte
seine Genauigkeit soll zwischen 0,1 % und 1 % liegen. Die mit dieser Methode ermittelten Daten liegen zwischen 1 Million und 4,5 Milliarden Jahren.
Die Isotope von Uran (238U und 235U) und Thorium (232Th) zerfallen, bis sie die stabilen Formen der Bleiisotope (206Pb, 207Pb und 208Pb) erreichen.
238Q9U -> 20fL Pb + 8 4,He + 6 0 ,e Lebenszeit: 4,47 Ga
23592u 20782 Pb + 7 42He + 4 0 ^ Halbwertszeit: 0,704 Ga
23290Th 20882 Pb + 6 42He + 4 0_ und Halbwertszeit: 14,1 Ga
Es wird angenommen, dass etwa 90 % der im Erdinneren erzeugten Wärme auf die Radioaktivität der Isotope 238U und 232Th zurückzuführen ist.
Viele halten diese Methode für vorteilhaft, weil sie zwei Uhren gleichzeitig nutzt: 238u/206pb (Halbwertszeit von 4,47 Milliarden Jahren) und 235U/207pb (Halbwertszeit von 704 Millionen Jahren).
Unter der Annahme, dass eine Probe die drei Pb-Isotope identisch verliert, wird das Verhältnis 207Pb/206Pb als Grundlage für die Datierung verwendet. Die Ausgangsanteile werden nach der Isochronenmethode ermittelt. Die Verhältnisse von 238U/206Pb, 238U/207Pb und 232Th/208Pb werden separat ermittelt und dann verglichen. Die Ergebnisse stimmen normalerweise nicht. Blei ist ein hochmobiles Element, das leicht aus der Probe austritt, wenn diese einem Erhitzungsprozess unterzogen wird.
Thorium und Uran sind chemisch sehr ähnliche Elemente und sind es auch
174
Zirkonkristall 250|jm lang (fotografiert mit Lichtmikroskop)
kommt normalerweise in gewöhnlichen Gesteinen wie Granit in Teilen pro Million vor. Diese Elemente kommen am häufigsten in Zirkon (ZrSi04) und Pechblende (U02) vor.
Zirkon enthält in seiner Kristallstruktur hauptsächlich Uran (U) und Thorium (Th), lehnt jedoch Blei (Pb) ab. Wenn der Zirkon nicht durch einen mechanischen Prozess beschädigt wurde, muss das in seiner Struktur enthaltene Blei das Ergebnis des Zerfallsprozesses von Uran sein. Selbst wenn Zirkon auf bis zu 900 °C erhitzt wird, bleibt Blei in seiner Struktur erhalten. Zirkon reagiert nicht leicht chemisch (es ist inert) und ist sehr beständig gegenüber abrasiven Prozessen.
Obwohl die Methode eine weithin anerkannte Präzision aufweist, besteht eines der schwerwiegendsten Probleme in der Anwesenheit von Helium (He) in Zirkonproben. Dieses Problem beeinträchtigt die Methode derart, dass wir später gesondert darauf eingehen werden.
D e s in e g r a ç ã o N u c l e a r A c e l e r a d a 9
Wie wir bereits gesehen haben, gibt es in der Erdkruste eine erhebliche Menge radioaktiver Elemente, hauptsächlich Uran und Thorium. Diese kommen normalerweise in Granit (Glimmer-Biotit) vor, in Mineralien wie Zirkoniumsilikat (ZrSi04) oder Zirkon, wie es genannt wird.
Zirkon hat einen hohen Härtegrad (7,5 auf der Mohs-Skala), eine hohe Dichte (4,7 g/cm3) und einen hohen Schmelzpunkt (2550 °C). Es kommt normalerweise in Form prismatischer Kristalle vor.
Glimmerbiotit Normalerweise sind 4 % der Zirkonium (Zr)-Atome in der Struktur der Kristallgitter durch Uran (U)- und Thorium (Th)-Atome ersetzt
(Foto: Eurico Zimbres, FGEUUERJ) Abkühlungsprozess, während sich die Zirkonkristalle bilden. Wenn diese Atome im Inneren des Zirkons zerfallen, erzeugen sie Alphateilchen (einen He-Kern: 2 Protonen + 2 Neutronen). Diese He-Kerne werden innerhalb der Zirkonstruktur explosionsartig ausgestoßen, wo sie durch die Aufnahme von zwei Elektronen zu einem neutralen He-Atom werden.
Helium (He) wiederum reagiert nicht chemisch mit anderen Atomen, ist extrem leicht und bewegt sich schnell. Es ist in der Lage, schnell in Festkörpern zu diffundieren und dabei die Lücken zwischen den Kristallgittern zu überwinden. Ebenso kann es durch kleine Löcher oder Risse in der Kristallstruktur entweichen und in Hochvakuumkammern in Laboren leicht nachgewiesen werden.
9 Die Veröffentlichung, in der das hier vorgestellte Gesamtwerk erscheint, stammt von den Ärzten D.R. Humphreys, S.A. Austin, J.R. Baumgardner und A.A. Snelling, Helium Diffusion Rates Support Accelerated Nuclear Decay, Institute for Creation Research, www.icr.org/pdf/research/Helium_ICC_7-22-03.pdf
B i i- [' 175
Lassen Sie uns diese Fakten im Kontext der Datierungsmethoden analysieren. Wie wir bereits sagten, geht man davon aus, dass 90 % der im Inneren der Erde erzeugten Wärme das Ergebnis des Zerfalls von Uran und Thorium sind.
All diese radioaktive Aktivität würde eine große Menge Helium produzieren, das für einige Zeit im Gestein eingeschlossen wäre. Mit der Zeit löste sich dieses Helium vom Gestein und gelangte in die Erdatmosphäre. Eine sehr kleine Menge dieses Heliums würde im Weltraum verloren gehen. Mit anderen Worten: Wir müssen zwei große Heliumreservoirs untersuchen: (1) die Erdkruste und (2) die Atmosphäre.
Wenn wir wissen, wie viel Helium produziert wird, wie schnell es aus Gesteinen entweicht und wie viel davon im Weltraum verloren geht, könnten wir berechnen, wie lange dieser Prozess bereits stattgefunden hat. Die Menge an Heliumgas in der Erdatmosphäre ist bekannt: nur 5,24 ppmv (Volumenteile pro Million) oder 0,000724 %. Ich möchte eine Analogie verwenden, um das Problem zu veranschaulichen. Für diejenigen, die mit dem Toten Meer in Israel vertraut sind, wird es leicht zu erkennen sein, wie die Analogie funktioniert.
Dieser große See liegt 418 Meter unter dem Meeresspiegel. Das gesamte Wasser, das ihn speist und darin gespeichert wird, stammt hauptsächlich aus dem Jordan und kleinen Bächen in der Region. Warum läuft es nie über? Weil sein Wasser verdunstet. Es besteht ein Gleichgewicht zwischen dem Wasser, das in den See gelangt, und dem Wasser, das aus dem See verdunstet.
Sagen wir mal so. Stellen Sie sich mehrere kleine Wasserfontänen vor, die in diesen großen See fließen. Stellen Sie sich nun vor, dass jeden Tag eine kleine Menge Wasser in diesem See verdunstet.
In unserer Analogie wäre das Wasser das Helium, die kleinen Quellen, die es liefert – Totes Meer, Israel – 4 1 8 Meter
Das Wasser für den See wäre das Gestein, das Helium enthält, und der See würde unterhalb der Meeresoberfläche liegen
Atmosphäre. Das aus dem See verdunstende Wasser stellt das Helium dar, das im Weltraum verloren geht. Der See verliert kein Wasser, außer durch Verdunstung.
Wenn die in den See eintretende Wassermenge abnimmt und die Verdunstung konstant bleibt, trocknet der See aus. Wenn die in den See eintretende Wassermenge zunimmt und die Verdunstung konstant bleibt, kommt es zum Überlaufen des Sees. Bleibt die in den See eintretende Wassermenge hingegen konstant und die Verdunstung nimmt ab, kommt es zum Überlaufen des Sees. Bleibt die in den See eintretende Wassermenge konstant und nimmt die Verdunstung zu, trocknet der See aus.
Wenn wir außerdem wissen, wie lange es dauert, bis das Wasser den See erreicht, und wie viel Wasser den See erreicht (entspricht der Diffusions- und Dispersionsrate von Helium aus den Gesteinen), wie viel Wasser befindet sich im See (entspricht der Menge an Helium). Helium, das in unserer Atmosphäre vorhanden ist) und wie viel Wasser verdunstet
176
(entspricht der Menge an Helium, die im Weltraum verloren geht) können wir eine Vorstellung davon bekommen, wie lange dieser Prozess bereits stattgefunden hat. Wenn wir also wissen, was variiert und wie stark es variiert, können wir den Funktionsmechanismus verstehen
Schauen wir uns den realen Fall von Helium in der Erdatmosphäre an. Die Diffusions- und Dispersionsraten von Helium sind so hoch, dass ein Großteil des produzierten Heliums zur Erde gelangt wäre, wenn dieser Prozess Milliarden von Jahren andauert hätte (wie die von Naturforschern angenommene 4,5 Milliarden Jahre alte Erde).
Sonnenaufgang über dem Toten Meer, israelische Atmosphäre (der See wäre zu voll).
Diese immense Menge Helium kommt jedoch nicht in unserer Atmosphäre vor! (Der See ist fast leer!) Manche denken vielleicht, dass sich das Helium „oben“ in der Atmosphäre befindet (es wäre, als ob das Wasser in einer unterirdischen Schicht festgehalten würde) oder dass es aus unserer Atmosphäre „entwichen“ ist und ging verloren. im Weltraum (wie das Wasser, das aus dem See verdunstet).-
Der erste Gedanke ist falsch, denn Heliumgas vermischt sich mit den anderen Gasen, aus denen die Atmosphäre besteht (in der Analogie zum See gibt es keinen unterirdischen Grundwasserspiegel).
Auch das Zweite stimmt nicht. Durch die kinetische Theorie der Gase kann nachgewiesen werden, dass ein sehr kleiner Teil davon in den Weltraum entweichen würde (aus dem See verdunstet nur sehr wenig Wasser).
In den 90er Jahren war Dr. Larry Vardiman, ein Wissenschaftler auf dem Gebiet der Atmosphärenwissenschaften, zeigte, dass selbst wenn Helium während der angeblichen Milliarden Jahre der Existenz der Erde in den Weltraum entweichen würde, die gegenwärtige Atmosphäre eine immense Menge an Helium enthalten würde. Die derzeitige Atmosphäre enthält nur 0,04 % des gesamten Heliums, das über einen so langen Zeitraum produziert worden wäre.11
Wenn kein Helium vorhanden ist, liegt das daran, dass der Prozess seit Milliarden von Jahren nicht mehr stattgefunden hat. Und da der Prozess stattfindet und messbar ist, besteht die einzig plausible Alternative darin, dass die Erde nicht so alt ist. In unserem Vergleich bedeutet das, dass der See noch nicht genug Zeit hatte, sich zu füllen.
Eine naturalistische Theorie, die das Fehlen von Helium in der Atmosphäre erklären könnte
10 M. A. Cook, Where is the Earth's Radiogene rlelilum?, Nature, 179:213,1957.11 L. Vardiman, The age of the Earth's Atmosphere: A Study of the Helium Flux through the
Atmosphäre, Institut für Schöpfungsforschung, El Cajon, CA, 1990, S. 28.
177
fera sollte plausible Mechanismen liefern: (1) wie das atmosphärische „Reservoir“ Helium verliert, oder (2) warum Helium dieses „Reservoir“ nicht erreicht, oder (3) beides. Einige Theorien wurden bereits aufgestellt. Die heute am meisten akzeptierte Annahme geht davon aus, dass He-Ionen, die sich zwischen den Magnetfeldlinien der Erde hoch über der Atmosphäre bewegen, von energiereichen Teilchen, die von Sonnenstürmen freigesetzt werden, mitgerissen werden.12 Diese äußerst komplexe Theorie bietet eine theoretische Antwort. Sie versucht, das Problem zu lösen Problem der Abwesenheit von He in unserer Atmosphäre, wenn die Erde Milliarden Jahre alt ist.
Wenn die Erde nicht Milliarden von Jahren alt ist, kann das Fehlen von Helium in der Atmosphäre durch bekannte physikalisch-chemische Prozesse und Phänomene erklärt werden, da noch nicht genügend Zeit für das Entweichen dieses im Gestein eingeschlossenen Heliums vorhanden wäre Atmosphäre.
In Anlehnung an den See haben wir beobachtet, dass noch nicht viel Wasser aus den Quellen geflossen ist, der See also noch nicht gefüllt ist. Auch diese Wasserfontänen in unserer Abbildung sind die kleinen Zirkone, in denen sich Helium befindet.
Schauen wir uns ein praktisches Beispiel an. Eine Reihe von Proben aus Bohrungen in den Jemez Mountains in der Nähe von Los Alamos, USA, die von Geowissenschaftlern des Los Alamos National Laboratory entnommen wurden, wurden zur Isotopenanalyse an das Oak Ridge National Laboratory geschickt. Das den Proben zugeordnete Alter betrug 1,5 Milliarden Jahre.13
Die Proben, die näher an der Oberfläche lagen, zeigten, dass im Zirkon Helium in der Größenordnung von 58 %, 27 % und 17 % zurückgehalten wurde, was bestätigte, dass ein großer Kernzerfall stattgefunden hatte. Um zu verstehen, was das bedeutet, müssen wir verstehen, wie Helium Zirkon verlässt. Das ist es, was wir Diffusion genannt haben.
Wenn in einem Bereich des Kristalls eine sehr große Konzentration von Heliumatomen vorhanden ist, beginnen diese Atome, sich in den kleinen Räumen, den sogenannten Kristallzellen, zu bewegen. Diese zufällige Bewegung führt im Laufe der Zeit zur Diffusion von Helium.
Diese Situation kann mathematisch wie folgt beschrieben werden (Diffusionsgleichung, bekannt als zweites Ficksches Gesetz):14
12 O. Lie-Svenden und M.H. Rees, Helium Scape from the Terrestrial Atmosphere: the Ion Outflow, Journal of Geophysical Research, 1. Februar 1996,101 (A2):2435-2443.
13 R.E. Zartman, Uranium, Thorium and Lead Isotopic Composition of Biotite Granodiorite (Probe 9527-2Ò) aus LASL-Bohrloch G T-2, Los Alamos Scientific Laboratory Report LA-7923-MS, 1979.
14 LA. Pfeifen und L.R. Harvill, Applied Mathematics for Engineers and Physicists, McGraw-Hill Book Company, N.Y., 1970, S. 412 und C. Kittel, Introduction to Solid State Physics, John Wiley & Sons, Inc., N.Y., 6a edição, 1986, p. 518-521.
178 0 • fcl
Grafik 1
Werte D und D, erhalten0 1durch Experimente.
■ Temperatur, T { K.)0 0 2000 1000 666 500 400 333
G rá f ic o 2
Einfluss von Fehlern auf die Ermittlung des D-Koeffizienten,
— Temperatur, 7*(K)1000 666 500 -400
G rá f ic o 3
Vergleich von Diffusionsdaten mit kreationistischen und naturalistischen Modellen.
10*' -
iaac
uniformitäres naturalistisches Modell
3
= D V2C, wobei C{x,y,z,t) die Konzentration zum Zeitpunkt t,ot ist
dC/d ist die Variation der Konzentration als Funktion der Zeit und D ist der Diffusionskoeffizient. V 2 ist der Laplace-Operator:
v72 d2 d2 32V/ = -----+ ------+ — .dx2 ôy2 dz2
Die Diffusionskonstante D kann durch die Gleichung erhalten werden:
D = D0 expj - £° + D 1 exp l R T
£iR T
1,4 1,6 1,8 2,0 2,2 2,4 2,8
Umkehrtemperatur, 1000 IT(K)
wobei der erste Term der Gleichung die Diffusion ist, die normalerweise im Kristall auftritt, und der zweite Term auf Defekte im Kristall zurückzuführen ist. D. ist die temperaturunabhängige Diffusion, E. ist die Aktivierungsenergie des Prozesses, R ist die universelle Konstante für Gase und T ist die Temperatur in Kelvin.
Die Do- und Z-Werte werden experimentell mithilfe des Arrhenius-Diagramms ermittelt, wie Diagramm 1 in der nebenstehenden Abbildung. Die folgende Grafik 2 zeigt, wie sich die Anzahl der Fehler auf den Koeffizienten D,.% i auswirkt
Möglicherweise sind Ihnen diese Informationen nicht bekannt, aber ich möchte Ihnen zeigen, warum sie wichtig sind.
Die Hauptursache für Defekte bei Zirkonen, die Radioisotope enthalten, sind Strahlenschäden. Haben Kristalle mit hoher Radioaktivität also einen hohen D1-Wert? Dies führt dazu, dass die Defektlinie im Diagramm höher liegt als die Defektlinie von Kristallen mit geringerer Radioaktivität (Diagramm 2).
Um diese Diffusionswerte für Helium in Zirkonkristallen zu erhalten, müssen wir zwei weitere Variablen kennen: die Größe der Kristalle und das Medium, in dem sie vorkommen. Normalerweise werden Zirkonkristalle in Biotit gefunden, einem häufig vorkommenden Mineral der Silikatklasse (K(Mg,Fe)3AlSi3O10(F,OH)2), allgemein bekannt als Glimmerbiotit.
Es wurden viele Messungen der Heliummenge in Biotit durchgeführt (denken Sie daran, dass sich Heliumgas im Zirkon bildet, nicht im Gestein, das den Zirkonkristall umgibt). Daher muss das Helium vom Inneren des Zirkons in das Innere des Biotits gewandert sein. Da Zirkon und Biotit unterschiedliche Dichten haben (4,7 g/cm3 bzw. 3,2 g/cm3), sind auch die Diffusionskoeffizienten in jedem von ihnen unterschiedlich.
Für Berechnungen wird oft der gleiche Diffusionskoeffizient verwendet, nämlich der von Zirkon.
0 A 179
Durch diese Berechnungen (siehe Anhang K) können wir die Menge an Heliumgas bestimmen, die nach einer bestimmten Zeit im Zirkon zurückgehalten wurde. Es ist diese Größe, die einen sehr starken Beweis gegen eine einheitliche Datierung von Milliarden von Jahren liefert.
Die Menge an Heliumgas, die in kleinen Zirkonkristallen eingeschlossen ist, ist bekannt. Auch Heliumdiffusionskoeffizienten in Zirkon sind bekannt. Eine Zeit tp wäre erforderlich, damit durch den nuklearen Zerfall von Zirkonkristallen (in diesem Fall den Zerfall von Uran und Thorium) eine Menge Qo Helium entsteht.
Ebenso wäre eine gewisse Zeit für die Diffusion des Heliums von den Zirkonkristallen zum Biotit erforderlich. Unter Verwendung des naturalistischen (uniformitären) Modells für die Proben aus den Jemez-Bergen, die auf ein Alter von 1,5 Milliarden Jahren datiert sind, sollten die Zirkon-Diffusionskoeffizienten etwa 100.000-mal kleiner sein als die gemessenen! (Siehe Diagramm 3.) Was bedeutet das? (Berechnungen finden Sie in Anhang K.) Das bedeutet, dass die Gesteine, die diese Kristalle enthalten, gemessen am Wert des Diffusionskoeffizienten von Helium in Zirkonkristallen und der Menge an gefundenem Helium höchstens zwischen 4.000 und 14.000 Jahre alt wären! Mit anderen Worten: Die 1,5 Milliarden Jahre alte Datierung des Gesteins, in dem die Zirkonkristalle gefunden wurden, ist falsch.
Die Studie zeigt, dass die naturalistischen Annahmen einer Konstanz und Permanenz von Situationen und Bedingungen gelinde gesagt fragwürdig sind. Mit anderen Worten: Es wäre ein Fehler zuzugeben, dass die Dinge schon immer so waren und funktionierten, wie sie sind und heute funktionieren.
Das Problem bei der naturalistischen Interpretation des mit radiometrischen Methoden ermittelten Alters besteht darin, dass sie vollständig auf dieser Annahme basiert. Wir stellen hier nicht die von den Datierungsmethoden verwendeten Techniken in Frage, sondern die Annahmen und die Interpretation, die auf der Grundlage dieser Annahmen aus den erhaltenen Werten gemacht wird.
Kehren wir zu unserer See-Analogie zurück. Der See ist noch nicht voll. Wie ist dieser Beweis zu erklären?
Für Naturforscher dauert der Prozess des Wassereinflusses in den See „Milliarden von Jahren“. Für sie ist die Tatsache, dass der See noch nicht vorhanden ist
Fast leerer See. Regenwasser immer noch
hatte nicht genug Zeit, um anzukommen
bis hin und fülle es.
Foto: Bill Walsh
180
voll ist (wissenschaftliche Beweise) bedeutet, dass die von den Quellen produzierte Wassermenge sehr gering ist (wissenschaftliche Beweise widersprechen, wie bereits gesehen). Daher würde es Milliarden von Jahren dauern, den See zu füllen. Wenn nachgewiesen ist, dass die von den Quellen geförderte Wassermenge ausreicht, um den See in kurzer Zeit zu füllen, muss eine starke Verdunstung die Ursache dafür sein, dass der See nicht gefüllt ist (auch dafür gibt es keine wissenschaftlichen Beweise). Unabhängig vom einen oder anderen gilt für Naturforscher: „Tatsache ist, dass der Prozess seit Milliarden von Jahren existiert“.
Für Kreationisten müsste der See aufgrund der von den Wasserquellen produzierten Wassermenge und der verdunsteten Wassermenge (wissenschaftliche Erkenntnisse) gefüllt sein, wenn der Prozess schon seit Milliarden von Jahren stattgefunden hätte. Da der See nicht gefüllt ist (wissenschaftlicher Beweis), läuft der Prozess nicht schon seit Milliarden, sondern schon seit Tausenden von Jahren (wissenschaftliche Berechnung – siehe Anhang K).
Alle diese radiometrischen Methoden datieren die Gesteine und nicht die darin gefundenen Fossilien.
D a t a ç ã o c o m C a r b o n o -1 4
Die für eine neuere Datierung vorgelegten Beweise werden noch deutlicher, wenn wir die Methode der radiometrischen Datierung von Kohlenstoff-14 und ihre Auswirkungen untersuchen.
Ein in heutigen wissenschaftlichen Kreisen vorherrschender Gedanke ist, dass die Kohlenstoff-14-Datierungsmethode die Position der Langzeitnaturforscher stützt. Aber nur wenige wissen, dass die Kohlenstoff-14-Datierungsmethode zuverlässige Daten von maximal 70.000 Jahren liefert und daher nicht zur Datierung langer Zeiträume verwendet werden kann. Daher ist es eine Methode, die nicht in der Lage ist, Proben von Lebensformen zu datieren, die Hunderttausende, Millionen oder Milliarden Jahre alt sein sollen!
Die radiometrische Datierungstechnik unter Verwendung des C-14-Isotops wurde 1949 von Willard F. Libby und seinen Mitarbeitern an der University of Chicago vorgeschlagen. Für diese Arbeit erhielt er im Jahr 1960 den Nobelpreis.
Diese Methode basiert auf dem Zerfall von Kohlenstoff-14 (Seite 164 zeigt eine Auflistung der verschiedenen Kohlenstoffisotope). Dieser Vorgang kann durch die Gleichung beschrieben werden:
14 C -> 14 N + 0 ,e + v Halbwertszeit: 5730 Jahre6 7 -1 e
Somit zerfällt Kohlenstoff-14 (radioaktiv) in Stickstoff-14 (stabil), wobei n d e0 ,e ein Elektron und ve ein Antineutrino darstellt.
181
Die Aurora Borealis ist das Ergebnis der Kollision von Teilchen (Elektronen) mit Atomen in der Magnetosphäre (ca. 80 km Höhe).
Zunächst sollten wir einige wichtige Aspekte über Kohlenstoff-14 kennen. Die Bildung von Kohlenstoff-14 in der Erdatmosphäre ist ein Prozess, der der Entstehung der Aurora Borealis ähnelt. .
Zwischen 9 und 15 km Höhe erzeugen hochenergetische Teilchen (Sonnenstrahlung), nachdem sie das Erdmagnetfeld passiert haben, Neutronen, die mit in der Atmosphäre vorhandenen Stickstoffmolekülen (N2) kollidieren und Stickstoff in Kohlenstoff-14 umwandeln. Der Prozess der Bildung von Kohlenstoff-14 wird durch die folgende Gleichung beschrieben:
147N + n 14 C+p,
Dabei ist n ein Neutron und p ein Proton. Kohlenstoff-14 verdünnt sich dann in der Atmosphäre und reagiert besonders
Mit Sauerstoff entsteht Kohlendioxid (CO2). Auch in den Ozeanen kommt es in großen Mengen gelöst im Wasser vor.
Pflanzen nehmen durch den Prozess der Photosynthese vorhandenen Kohlenstoff-14 in Form von CO2 auf. Tiere nehmen sowohl durch Atmung als auch durch Nahrungsaufnahme Kohlenstoff-14 auf.
Daher bleibt das 14C/12C-Verhältnis im Organismus eines Tieres oder einer Pflanze im Laufe des Lebens praktisch konstant. Nach dem Tod und der Versteinerung des Tieres oder der Pflanze beginnt sich dieser Anteil aufgrund des Zerfalls des im Körper des Organismus vorhandenen Kohlenstoff-14 zu ändern, da Kohlenstoff-14 nicht mehr durch natürliche biologische Prozesse (Atmung und Nahrung) wieder aufgefüllt wird. Genau diese Variation wird gemessen, sodass dem Fossil ein Alter zugeordnet werden kann.
Etwa 90 % der kosmischen Strahlung sind Protonen,
9 % sind Heliumkerne
(a - Alphateilchen) und 1 % Elektronen
(Partikel (3 - Beta).
Uhr
"C/
Durch Atomtests erzeugte Kohlenstoff-14-Variation
im Jahr 1963. Die grüne Linie stellt den Betrag dar
gemessen auf der Südhalbkugel und die rote Linie in der
Nordhalbkugel. Die blaue Linie stellt den Betrag dar
wäre ohne die Atomtests normal (Messwerte reichen von
1954 bis 1993).
Grafik 4
1*4 IMO l * « IS « l«I0 t m 1900 1M Í m » »M3
Ano (n. Chr.)
Grafik 5
Beispiel einer Kalibrierungskurve
WWDC *000 K » 0 0 BC N M M IMQ5C U 0 iOCQAfl 1090 AO
Was ist eine Tatsache und was eine Annahme? Es ist eine bekannte Tatsache der Wissenschaft, dass kosmische Strahlung die Quelle ist
Produktion von Kohlenstoff-14 auf der Erde. Das derzeitige Verhältnis von Kohlenstoff-14 in der Erdatmosphäre beträgt ein Teil pro Billion (600 Milliarden Atome/Mol oder ein C-14-Atom pro Billion Kohlenstoffatome). Pro Jahr werden 9,8 kg Kohlenstoff-14 in der Atmosphäre produziert.
Diese Menge an Kohlenstoff-14 in der Atmosphäre ist nicht konstant. Sie kann durch natürliche Prozesse oder durch menschliche Aktivitäten verändert werden (siehe nebenstehende Grafik 4).
Veränderungen durch natürliche Prozesse hängen von mindestens vier Hauptfaktoren ab: (1) Sonnenstürmen (Variationen in der Intensität des die Erde erreichenden Flusses), (2) der Magnetosphäre (Variationen in der Intensität des Erdmagnetfelds, das als Schutz dient). Schild), (3) Kohlenstoffspeicher (Änderungen der Intensität, die von der Biomasse, den Ozeanen und Sedimentgesteinen des Planeten absorbiert oder freigesetzt wird) und (4) Klimaaktivität (Änderungen des Kohlenstoffflusses, der von den Speicherpools in die Atmosphäre gelangt).
Daher muss jeder dieser Faktoren verstanden und untersucht werden, damit sein Einfluss auf die Menge an Kohlenstoff-14 korrekt ermittelt werden kann. Eine direkte Auswirkung dieser Variationen ist die Notwendigkeit einer Kalibrierung bei der Kohlenstoff-14-Methode.
Es gibt mehrere Kalibrierungstechniken, die auf Untersuchungen der Menge an Kohlenstoff-14 in bestimmten Umgebungen basieren.15 Einige dieser Kurven wiederum basieren auf Altersangaben, die mit anderen Datierungsmethoden (Dendrochronologie) ermittelt wurden. Andere Kurven basieren auf fragwürdigen Annahmen, wie zum Beispiel dem vorgeschlagenen Klimawandel während der jüngeren Dryas-Zeit, 11.000 bis 10.000 v. Chr. (Vermutlich existierte er, aber es ist nicht sicher, ob er lokal oder global war).
Betrachten wir die vier Faktoren, die die Menge an Kohlenstoff-14 in der Erdatmosphäre beeinflussen.
Sonnenstürme Sonnenstürme sind mit einem bekannten Sonnenphänomen verbunden.
15 Beispiele für Kalibrierungskurven können direkt aus den von M. Stuiver, P. J. Reimer und T. F., Breziunas, High-Precision Radiocarbon Age Calibration for Terrestrial and Marine Samples, Radiocarbon 40,1127-1151,1998, hergestellten Tabellen stammen. (http://depts. washington.edu/qil/datasets/uwten98_14c.tx) von I. Levin, B. Kromer, H. Schoch-Fischer, M. Bruns, M. Münnich, D. Berdau, J.C. Vogel und K.O. Münnich, hl 4C02 Eintrag aus Vermunt, In Trends, A Compendium of Data on Global Change. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, US-Energieministerium, Oak Ridge, Tennessee, USA, 1994, http://cdiac.esd.ornl.gov/trends/co2/cent-verm.htm
eido als koronale Massenauswürfe (CME – Coronal Mass Ejections). Diese gigantischen Explosionen in der Sonnenatmosphäre setzen Strahlung mit einer Energie in der Größenordnung von einer Milliarde Megatonnen frei (die Atombombe, die Hiroshima zerstörte, hatte nur 20 Kilotonnen – 20 Tausendstel Megatonnen). Diese Strahlung bewegt sich mit einer Durchschnittsgeschwindigkeit von 1.000.000 km/h durch den Weltraum. H! Diese Sonnenaktivitäten werden seit 1859 von Wissenschaftlern überwacht.
Die Sonne hat einen 11-jährigen Zyklus der Sonnenaktivität. Während jedes Zyklus wird eine große Anzahl von Sonneneruptionen beobachtet. Es gibt keine Konstanz in der Anzahl der Sonneneruptionen oder der Intensität jeder Eruption innerhalb jedes Zyklus. Beispielsweise erzeugte ein Bereich der Sonne am 1. September 1859 fast eine Minute lang eine Helligkeit, die etwa doppelt so hell war wie normal. Am 27. Februar 2000 löste die Sonne eine CME-Explosion aus, die mehr als 2.000.000 km von der Oberfläche entfernt war.
Diese Stürme wirken sich auf die Menge an Kohlenstoff-14 und anderen Elementen aus, die in der Atmosphäre durch den Fluss der Sonnenstrahlung produziert werden, der die Erdatmosphäre erreicht. Im Allgemeinen weiß die Wissenschaft, dass der Fluss nicht konstant ist.16
Das Ausmaß dieser Schwankung lässt sich anhand des Isotops des in der Atmosphäre produzierten chemischen Elements Beryllium-10 abschätzen. Beryllium-10 entsteht durch kosmische Strahlung und seine Menge wird durch die Sonnenaktivität begrenzt. Je größer die Sonnenaktivität, desto weniger Beryllium-10 wird in der Atmosphäre produziert. Durch die Messung der Berylliumkonzentration in den jährlich übereinander gelagerten Eisschichten in der Nähe der Polarregionen ist es möglich, die Sonnenaktivität abzuschätzen.
Grafik 6 rechts zeigt die Konzentration von Beryllium-10 in den grönländischen Eisschilden. Die Korrelation zeigt die Variation der Sonnenaktivität in den letzten 400 Jahren (vergleiche Grafik 7 auf der nächsten Seite).
In Grafik 5 können wir die Kalibrierungskurve sehen, die bis 5.000 AC reicht, was sehr nahe an der Ideallinie liegt (nicht kalibriert). Wenn wir uns jedoch die Grafiken 6 und 7 ansehen, erkennen wir, dass die Sonnenaktivität eine viel steilere Kalibrierungskurve erzeugen sollte als die in Grafik 5 gezeigte.
A 0 '; : B 183
16 Devendra Lai, A.J.T. Jullb, David Pollardc und LoicVacher, Beweise für große zeitliche Veränderungen der Sonnenaktivität im Jahrhundert in den letzten 32.000 Jahren, basierend auf in-situ-kosmogemc 14C im Eis bei Summit, Greenland, Earth and Planetary Science Letters 234 (3-4), 335 -249.
Bild von Sonnenstürmen, aufgenommen von der
SOHO-Observatorium (Solar und Heliospheric).
Observatorium)
G r á f ic o 6
Menge an Beryllium-10 in Eisschilden, korreliert mit der
Sonnenaktivität.
Sonnenaktivität
1400 1900 1600 1700 1800 1900 2000
was für eine Anzeige
184 V.;
G r á f ic o 7
Anzahl der beobachteten Sonnenflecken während
die letzten 400 Jahre.
was für eine Anzeige
Da die Intensität des kosmischen Strahlungsflusses nicht konstant ist und anscheinend zunimmt, war die Menge an Kohlenstoff-14 in der Erdatmosphäre in der Vergangenheit zweifellos geringer als der aktuelle Wert.
- ■©)} >
Magnetosphäre der Erde Die Linien stellen das Magnetfeld dar.
Daumen in Richtung
elektrische Stromrichtung von
elektrischer Strom
_ die anderen Finger zeigen in die Richtung
des Magnetfeldes
Ausrichtung eines durch einen elektrischen Strom erzeugten Magnetfeldes.
Feldrichtung
magnetisch
Das Magnetfeld der Erde Wie in Kapitel 3 gesehen, verfügt die Erde über ein Magnetfeld.
Dieser erstreckt sich etwa 70.000 km über der Erdoberfläche. Diese Region ist als Magnetosphäre bekannt. Dieses gigantische Magnetfeld fungiert als Schutzschild für den Planeten und verhindert, dass von der Sonne und Sternen erzeugte Partikel in die Erdatmosphäre eindringen.
Die Quelle und Stabilität dieses Magnetfelds war Gegenstand zahlreicher Forschungen und Diskussionen. Alle anerkannten Theorien über den Ursprung des Erdmagnetfelds gehen davon aus, dass ein elektrischer Strom (keine Ablagerungen magnetisierten Eisens) außerhalb des Erdkerns fließt und das Magnetfeld erzeugt.
Die „Rechte-Hand-Regel“ aus dem Bereich Elektrizität und Magnetismus kann uns helfen, diesen Mechanismus zu visualisieren (siehe nebenstehende Abbildung).
Stellen Sie sich einen Draht vor, der in der Mitte eines Raumes verläuft und vom Boden bis zur Decke verläuft. Durch den Draht fließt ein elektrischer Strom vom Boden bis zur Decke. Wenn Sie den Draht in Ihrer Hand halten, wobei Ihr Daumen in Richtung des Stroms zeigt (wie in der nebenstehenden Abbildung), zeigen Ihre Finger um den Draht herum die Richtung des durch den elektrischen Strom erzeugten Magnetfelds an.
Ich verwende immer noch das gleiche Beispiel. Stellen Sie sich nun vor, dass ein Draht um einen Erdball gelegt wird und ein elektrischer Strom durch diesen Draht zirkuliert. Es entsteht ein Magnetfeld, das vom geografischen Nordpol zum geografischen Südpol des Globus oder umgekehrt verläuft, abhängig von der Richtung des Stroms (beachten Sie im vorherigen Beispiel, dass der Strom von der Decke zur Decke kommt). Boden ist die Richtung des Magnetfeldes entgegengesetzt).
Ü !- v.! Ü r ; B i i i ■ 3 f. 185
Diese Theorien scheinen durchweg den Ursprung des Erdmagnetfelds zu erklären. Die Frage, die noch offen ist und hauptsächlich die Kohlenstoff-14-Datierung beeinflusst, ist der Ursprung dieser Strömung. An diesem Punkt gehen die Theorien auseinander. Denken Sie daran, dass das Magnetfeld als Schutzschild fungiert. Wenn die Intensität variiert, variiert auch der Schutz, den es bietet. Und was es vor allem verändern kann, ist der elektrische Strom, der es erzeugt.
Eine der bekanntesten Theorien über den Ursprung des Magnetfelds ist die „Dynamoeffekt“-Theorie. Sein Vorschlag besteht darin, dass die elektrischen Ströme durch das im flüssigen Teil des Erdkerns geschmolzene Nickel und Eisen unter dem Coriolis-Effekt, der durch die Rotation des Planeten verursacht wird, dazu neigen, sich zu „organisieren“ und auszurichten. Dies wäre die Quelle des elektrischen Stroms. Wenn leitendes Material die ursprünglichen Magnetfeldlinien kreuzt, wird ein elektrischer Strom induziert, der wiederum ein weiteres Magnetfeld erzeugt. Wenn dieses erzeugte Magnetfeld das ursprüngliche Magnetfeld verstärkt, entsteht ein Dynamo, der sich selbst erhält.
Sowohl der Ursprung des Prozesses als auch die durch den Dynamoeffekt vorgeschlagene Selbsterhaltung sind höchst fragwürdige Teile der Theorie. Der Ursprung dieses elektrischen Stroms wird auch heute noch intensiv erforscht. Einige Beweise machen jedoch deutlich, dass der sogenannte Dynamoeffekt nicht die Antwort auf die angebliche Stabilität des Erdmagnetfelds ist.
Seit über 140 Jahren wird dieses Magnetfeld untersucht und gemessen. In diesem Zeitraum verlor es etwa 15 % seiner Intensität. Diese 15 % beziehen sich auf den Hauptteil des Magnetfelds, den sogenannten Dipol. Diese Daten wurden von Dr. T.G. Barnes in den 70er und 80er Jahren.17>18
Die International Association of Geomagnetism and Aeronomy (IAGA) hat im International Geomagnetic Reference Field (IGRF) genaue Daten zum Erdmagnetfeld veröffentlicht. Der in 903 IGRF19 gefundene Datensatz bietet eine Beschreibung des Erdmagnetfelds zwischen 1970 und 2000.
Wie wir in Kapitel 3 gesehen haben, hat Dr. Russell Rum-
17 G.T. Barnes, Decay of the Earth's Magnetic Field and the Geochronological Implications, CRSQ, 1971, 8:24-29.
18 G.T. Barnes, Electromganetics of the Earth's Field and Evaluation of Electric Conductivity, Current, and Joule Heating in the Earth's Core, CRSQ, 1973, 9:222-230.
19 Diese Daten können online auf der Website des National Geophysical Data Center unter www.ngdc.noaa.gov abgerufen werden.
186
(1) Atmosphäre
(2) Ozeane
(3) Wälder
(4) Kohle
Phreys zeigte, dass der Dipolteil während dieser 30 Jahre an Daten etwa 235 ± 5 Milliarden Megajoule an Energie verlor. Er stellte außerdem fest, dass der Nicht-Dipol-Teil 129 ± 8 Milliarden Megajoule zunahm. Er berechnete, dass der Gesamtenergieverlust aller Teile in diesem Zeitraum 1,41+0,16 % betrug. In der Praxis würde das Erdmagnetfeld alle 1465 ± 166 Jahre die Hälfte seiner Energie verlieren.20
Diese Schlussfolgerung steht im Einklang mit der Physik: (1) ein elektrischer Strom induziert ein magnetisches Feld, und (2) ein magnetisches Feld induziert auch einen elektrischen Strom. Ein zyklisches System zwischen (1) und (2) würde aufgrund von Systemverlusten, deren Hauptverlust Wärme ist (erster und zweiter Hauptsatz der Thermodynamik), keinen kontinuierlichen Motor (einen Motor, der ständig läuft) erzeugen. Eine Bewegung flüssiger Materie würde zerstörerisch Energie vom Dipolteil zum Nicht-Dipolteil transportieren, was zu einem hohen Energieverlust in Form von Wärme führen würde.21
Wir wissen, dass der Strom, der das Magnetfeld erzeugt, unabhängig von der Herkunft nicht konstant ist und von Natur aus dazu neigt, mit der Zeit abzunehmen. Wir können sagen, dass die Intensität des Erdmagnetfelds im Laufe der Zeit abnimmt (der Schild wird kleiner) und dass die Menge an produziertem Kohlenstoff-14 zunimmt.
Einige argumentieren, dass dieser beobachtete Zerfall nichts anderes als der Beginn einer Magnetfeldumkehr sei. Mit anderen Worten: Was heute der magnetische Norden ist, wird in Zukunft zum magnetischen Süden. Praktisch gesehen werden die Kompasse in Zukunft nicht mehr wie heute nach Norden, sondern nach Süden zeigen.
Wir werden die Frage der Umkehrung des Erdmagnetfeldes im nächsten Kapitel diskutieren, wenn wir uns mit Katastrophen befassen. Im Moment ist es nur wichtig zu betonen, dass diese Umkehrungen im Großen und Ganzen kein jahrhundertealter Prozess sind. In der wissenschaftlichen Veröffentlichung wurde bereits ein kurzer Zeitraum für Inversionen beschrieben.22
KohlenstoffreservoirsKohlenstoff kommt auf der Erde in vier Reservoirs vor: (1)
in der Atmosphäre, (2) in den Ozeanen, (3) in Biomasse (Pflanzen und Lebewesen) und (4) in Gesteinen und Fossilien (Kohle, Öl, Erdgas).
20 D.R. Humphreys, Das Erdmagnetfeld verliert immer noch Energie, CRSQ, 2002,39(1)1-11.21 K.L. McDonald und R.H. Gunst, Eine Analyse des Erdmagnetfeldes von 1835 bis 1965, ESSA
Technischer Bericht 1ER 4 6 – IES 1, U.S. Government Printing Office, Washington, D.C., S. 25,22 R.S. Coe, M. Prévôt, e P. Camps, Neue Beweise für außergewöhnlich schnelle Veränderungen der
Geomagnetisches Feld während einer Umkehrung, Nature 374:687-692.
Von 0 5 bis 187
750 atm
t ° í
Soli1580
die ... Die
tVegetation 6 10
1.6
V290'■ »
Biota Marinha 3
\6C Eisen O organisch
D issolvido < 7 0 0 ~
Verbrennung fossiler Brennstoffe (Fahrzeuge und Fabriken)
: 4.000
55 ■• •
Rios i J L ,
Meeresoberfläche 1.0 20
«16í) 100JSB
Der tiefe Ozean 3 8 ,10 0
021 . _ *
Seüim entos 15 0
Arm azenagam bin Gigatonnen Kohlenstoff
Ströme in Giga-Tonnen Kohlenstoff pro Jahr
Wir haben bereits gesehen, dass das einzige Reservoir, das für die natürliche Produktion des gesamten auf der Erde vorkommenden Kohlenstoff-14 verantwortlich ist, die Atmosphäre ist. Die anderen Stauseen behalten es einfach. Die Menge an Kohlenstoff in der Atmosphäre hängt auch davon ab, wie viel Kohlenstoff von den anderen drei Reservoirs übertragen oder absorbiert wird. Wenn beispielsweise die Menge an Pflanzen auf dem Planeten erheblich abnimmt, wird viel weniger Kohlenstoff aus der Atmosphäre aufgenommen. Daher wird es im atmosphärischen Reservoir eine große Menge Kohlenstoff geben. Wenn andererseits der Kohlenstoff, der im Fossilienbestand „gespeichert“ ist, wie Kohle, Öl und Erdgas, gefördert und in großem Maßstab genutzt wird (verbrannt wird, wobei der darin enthaltene Kohlenstoff freigesetzt wird), führt dies zu einer Zunahme in Kohlenstoff im Reservoir. atmosphärisch.
Die Temperatur beeinflusst auch den Mechanismus zur Freisetzung und Aufnahme von Kohlenstoff aus der Atmosphäre, sowohl durch Pflanzen als auch durch die Ozeane. Grafik 8 auf der Seite zeigt die Variation der seit den 1850er Jahren gemessenen globalen Temperatur. Es wird somit beobachtet, dass der Kohlenstofffluss zwischen den Reservoirs der Erde nicht konstant ist und daher das Verhältnis von 14C/C in der Atmosphäre kaum konstant gewesen wäre auch während einer kurzen Zeitspanne konstant gehalten werden, sei es geologisch oder nicht.
Einige aktuelle Daten zum Kohlenstoffkreislauf zwischen den Reservoirs sind in der Abbildung oben zu sehen. Der Zyklus umfasst ein Jahr und alle Zahlen beziehen sich auf Milliarden Tonnen Kohlenstoff.
Durchschnittlicher jährlicher Kohlenstoffkreislauf
Grafik 8
Globale Temperaturschwankung in den letzten 150 Jahren
Jahre (1850 bis 2000)
188
Ein praktisches Beispiel
Lassen Sie uns ein praktisches Beispiel für die Kohlenstoff-14-Datierung anführen, indem wir die Gleichungen in Anhang L verwenden.
Wir können das Alter eines Fossils anhand der darin gefundenen Konzentration von Kohlenstoff-14 berechnen. Nehmen wir an, wir haben einen Baum gefunden, der bei einem Vulkanausbruch versteinert wurde, und wir möchten wissen, wann das passiert ist
r, , Vulkanausbruch hätte stattgefunden. Dazu müssen wir die Menge an versteinerten Baumstämmen im US-Bundesstaat Montana messen. Kohlenstoff-14 ist in diesem versteinerten Baum noch vorhanden. Der im Labor (Quelle: u.5.ceoigicaisurvey) ermittelte Wert betrug 7 Kohlenstoff-14-Zerfälle pro Minute und Gramm
des Gesamtkohlenstoffs. Der angenommene Wert für die anfängliche Menge an Kohlenstoff-14 entspricht dem aktuellen Wert (konstante Menge an Kohlenstoff-14 über lange Zeiträume) von 15,3 Zerfällen von Kohlenstoff-14 pro Minute und Gramm Gesamtkohlenstoff (der derzeit akzeptierte Wert beträgt 14). Kohlenstoff-14-Zerfälle pro Minute pro Gramm Gesamtkohlenstoff, oder 14 dpm (Zerfälle pro Minute), oder etwa 230 mBq/g). Somit hätte der Vulkanausbruch vor 6.500 Jahren oder im Jahr 4.500 v. Chr. stattgefunden.23
Dieses Datum könnte nur dann korrekt sein, wenn die Menge an Kohlenstoff-14 in der Atmosphäre konstant wäre. Wir haben bereits gesehen, dass dies nicht der Fall ist.
Folgen Sie der Begründung. In diesem Beispiel wurde angenommen, dass zum Zeitpunkt der Versteinerung des Baumes bei dem Vulkanausbruch die Menge an Kohlenstoff-14 in der Atmosphäre 15,3 betrug (die gleiche wie heute) und dass der Baum daher auch diese Konzentration aufwies. Da die im Baum gefundene Kohlenstoff-14-Konzentration 7,0 betrug, wäre bereits eine gewisse Zeit vergangen (ansonsten hätte er immer noch eine Konzentration von 15,3). Aber was wäre, wenn der Kohlenstoff-14-Gehalt in der Atmosphäre zum Zeitpunkt der Versteinerung des Baumes nur 12,00 und nicht 15,3 betrug? In unserer Gleichung müssten wir also statt des Werts 15,3 den Wert 12,0 verwenden, was uns ein Alter von 4500 Jahren und nicht von 6500 Jahren ergäbe!
Usamos este exemplo e todos os fatores mencionados anteriormente para ilustrar as dificuldades em admitir pressuposições e em estabelecer curvas de calibragem que auxiliem na obtenção de datas reais pelo método de Carbono-14.
D e r r u b a n d o u m Mit it o
Wäre es dann möglich, die durch radiometrische Datierungsmethoden ermittelten hohen Alter wissenschaftlich zu hinterfragen? Ist es möglich, dass die den Fossilien zugeordneten Daten falsch sind? Es wäre möglich, dass die Annahmen, die die Grundlage für die Funktionsweise von Datierungsmethoden definieren, folgende sind
23 Das Beispiel stammt aus General Chemistry – 2. Auflage, D. D. Ebbing und M. S. Wrighton, Houghton Mifflin Co., 1987, S. 767-768.
189
falsch? Das haben wir schon gesehen. Das Hauptargument wurde jedoch noch nicht vorgebracht. Es liegt genau bei Kohlenstoff-14.
Für die folgende Diskussion gehen wir davon aus, dass die Menge an Kohlenstoff-14 in der Erdatmosphäre, wenn nicht gleich, so doch zumindest sehr nahe am aktuellen Niveau geblieben ist. Dies ist sehr wichtig, da die mit den bereits erwähnten Methoden ermittelten Daten auf der Annahme einer Konstanz der Umstände und Phänomene über die langen Zeiträume geologischer Zeitalter beruhen. Wenn wir diese Annahme übernehmen, bevorzugen wir daher extrem frühe Daten, die mit herkömmlichen Datierungsmethoden ermittelt wurden. Zwei sehr wichtige Fakten über Kohlenstoff-14 müssen hier beachtet werden:
(1) Menge in der Atmosphäre: (2) Halbwertszeit von Kohlenstoff-14:
Ippt – 14C/C 5730±40 Jahre
Da das 14C/C-Verhältnis in der Atmosphäre so gering und die Halbwertszeit von 14C so kurz ist, ist leicht zu erkennen, dass es einen Mindestwert von 14C gibt, der nachgewiesen werden kann. In g des aktuellen Kohlenstoffs würden wir etwa 6 x 1010 Atome von 14C finden.
Die zur Messung des 14C/C-Verhältnisses verwendeten Massenbeschleunigungsspektrometer weisen eine hohe Empfindlichkeit und Genauigkeit auf. Derzeit liegt der Grenzwert für die Kohlenstoff-14-Datierung unter Ausschluss probenbezogener Unsicherheiten in der Größenordnung von 58.000 bis 62.000 Jahren (ungefähr 10 Halbwertszeiten von Kohlenstoff-14). Dies würde einem PMC (moderner Kohlenstoffanteil) von 0,055 entsprechen.
Wir können daher den Schluss ziehen, dass jede Probe, die noch eine nachweisbare Menge an Kohlenstoff-14 in der Größenordnung von 0,05 pmc aufweist (völlig innerhalb der Grenzen der meisten Massenbeschleunigungsspektrometer), und dass diese nachweisbare Menge keine Kontamination darstellt, diese Probe jedoch grundsätzlich nicht kontaminieren kann älter als 63.000 Jahre (Alter entspricht einem cmp von 0,05).
Lassen Sie uns dieses Argument folgendermaßen formulieren: Eine Probe, die organisches Material enthält, das mit einer anderen herkömmlichen Methode (den oben bereits erwähnten) auf 250.000 Jahre datiert wurde und frei von Verunreinigungen war, würde einen PMC-Wert von 7,34 x 1 0 12 aufweisen weit über die Empfindlichkeit aktueller Geräte hinausgehen. In jeder Hinsicht würde eine Probe dieses Alters als „kohlenstofftot“ betrachtet werden (kein nachweisbarer Kohlenstoff-14).
Mehrere Studien zeigen, dass 14C in Proben nachgewiesen wurde, die aufgrund des durch andere Datierungsmethoden zugewiesenen Alters keine nachweisbare Menge dieses Elements enthalten sollten.
Die Gleichungen zur Umwandlung von PMC in
Zeit (Jahre) sind:
pmc – 100 x 2 1/573(1
oder
t = - ln pmc1(X)
x 5730 ln 2
Num
Ero
Seit ich habe
ostr
als
190 €
Grafik 9 Grafik 10
12
10
8
6
4
2
1 4
14C/C-Verhältnis gemessen in präkambrischen Proben
(nicht biologisch)
Mittelwert: 0,062 ■Standardabweichung: 0,034
-p-i 11 | i i i i 11 i i i | ich ich ich ich | i i i 11 i i i i
ICH . . . . I .0,1 0,2 0,3 0,4 0,5 0,6
Moderner Kohlenstoffanteil (pmc)0,7
E 6KJ 0,1 0,2 0,3 0,4 0,6 0,7Moderner Kohlenstoffanteil (pmc) 00 Zur Veranschaulichung stellen wir eine dieser Studien vor. Eine Liste von 28 wissenschaftlichen Publikationen, zusammengestellt von Dr. Paul Giem und analysiert von Dr. John Baumgardner, hauptsächlich vom Radiocarbon Journal und Nuclear Instruments and Methods in Physics Research B, diente als Grundlage für eine Studie über das Vorhandensein von Kohlenstoff-14 (siehe Anhang M). Die Proben wurden zur Analyse in drei verschiedene Kategorien eingeteilt: (1) diejenigen, bei denen davon ausgegangen werden kann, dass sie keinen Kohlenstoff biologischen Ursprungs enthalten (im Allgemeinen der präkambrischen Periode zugeordnet, bei denen es sich bei den meisten um Graphite handelt), (2) diejenigen, die zweifellos Kohlenstoff biologischen Ursprungs enthalten und (3) diejenigen, deren Kohlenstoffursprung schwer zu identifizieren ist. Die Ergebnisse sprechen für sich. In Abbildung 9 (oben) sehen wir, dass der durchschnittliche 14C/C-Wert der Proben, die keinen biologischen Kohlenstoff enthalten, 0,062 ± 0,034 pmc beträgt (vollkommen innerhalb der Nachweiskapazität des Geräts). Dies entspricht einem Durchschnittsalter von 61.000 Jahren, denn mit anderen Methoden datierte Gesteine waren Hunderte Millionen Jahre alt (mindestens 542 Millionen Jahre alt, als das Kambrium nach Angaben von Naturforschern begann). Wie kann das einer Probe (mindestens 542 Millionen Jahre alt) zugeordnete Datum 10.000-mal höher sein als der darin gefundene 14C/C-Grenzwert? Eine 542 Millionen Jahre alte Probe hätte kein nachweisbares 14C! Eine Probe, die 250.000 Jahre alt ist, hätte kein nachweisbares 14C! In Grafik 10 (oben) sehen wir etwas noch Beeindruckenderes. Amos-
Hinter dem Phanerozoikum (Material mit biologischem Kohlenstoff), das zwischen 40 und 350 Millionen Jahre alt ist, gibt es praktisch das gleiche PMC! Wenn diese Fossilien von Organismen stammen, die über lange Zeiträume ausgestorben sind, wie ist es dann möglich, dass sie annähernd den gleichen Anteil an Kohlenstoff-14 aufweisen? (pcm = 0,05 entspricht ungefähr 63.000 Jahren und pmc = 0,65 entspricht ungefähr 41.500 Jahren.)
Allein die Daten zeigen, dass diese Lebensformen nicht im Laufe der Geschichte ausgestorben sind, sondern eher innerhalb eines kurzen Zeitraums oder vielleicht sogar im selben historischen Ereignis. Wenn Kohlenstoff-14 noch nachweisbar ist, darf die Probe nicht älter als 63.000 Jahre sein. Wenn die nachgewiesene Menge an Kohlenstoff-14 in mehreren Proben praktisch gleich ist, bedeutet dies, dass sie in einem kurzen Zeitraum (einige Jahre) oder gleichzeitig gebildet wurden.
Könnte das eine Fehlinterpretation sein? Nur wenn es nicht mit den Beweisen übereinstimmte. Hat sie Unrecht, wenn sie die vermeintlich „langen geologischen Zeiträume“ nicht favorisiert? NEIN. Beweise, die gegen eine Theorie sprechen, zeigen nur, dass die Theorie zumindest fraglich ist.
Obwohl alle Laboratorien, die die in den wissenschaftlichen Veröffentlichungen vorgestellten Datierungen durchgeführt haben, hochspezialisierte Einrichtungen auf diese Methoden sind und in Bezug auf das Problem der Probenkontamination äußerste Vorsicht walten lassen, könnten einige argumentieren, dass dennoch eine gewisse Kontamination aufgetreten sein könnte, was das erklären würde Vorkommen von Kohlenstoff-14 in Material, das aufgrund seines Alters keine Spuren dieses Elements mehr enthalten sollte. Zweifellos wäre dies eine Möglichkeit.
Aber diese Möglichkeit würde verschwinden, wenn Kohlenstoff-14 in Diamanten nachgewiesen werden könnte, die Hunderte Millionen Jahre alt sind. Der Theorie zufolge hätten sich solche Diamanten Hunderte von Kilometern tief unter der Oberfläche gebildet, lange vor dem Gestein, in dem sie gefunden wurden. Eine solche Probe wäre praktisch frei von Verunreinigungen.
Dies ist bereits geschehen. Diamanten, die in einer Tiefe von 200 km entstanden sind (Fachangaben zufolge) und in Gesteinen aus dem Präkambrium gefunden wurden, weisen nachweisbare Kohlenstoff-14-Werte auf, deren Werte deutlich über den Grenzwerten von Massenspektrometern liegen.24
Wie lässt sich die Richtigkeit der 600 Millionen Jahre erklären, die einem Gestein zugeschrieben werden, in dem sich ein Diamant befindet, der aufgrund der darin enthaltenen Menge an Kohlenstoff-14 nicht älter als 58.000 Jahre sein kann? Denken Sie daran, dass der Diamant lange vor dem Gestein aufgetaucht sein muss, in dem er gefunden wurde. Zweifellos ist die dem Gestein zugeschriebene Altersangabe von 600 Millionen Jahren völlig falsch.
- 0 f- L U ti I i_ i J F I 191
24 Jonathan Sarfati, Refuting Compromise, 2004, Master Books Inc., AR, S. 387.
C o nv i v e n d o c o m u m M it o
Laut Darwin selbst hätte eine Evolution ohne lange Zeiträume sicherlich nicht die geringste Chance gehabt. Die natürliche Selektion braucht diese langen Zeiträume.25 Für den Darwinschen Vorschlag ist es von grundlegender Bedeutung, dass „das Gesicht der Natur über lange Zeiträume einheitlich bleibt“.26
Auch wenn wissenschaftliche Beweise genau das Gegenteil belegen (das Fehlen langer Zeiträume und Uneinheitlichkeit), werden Fakten dem Mythos geopfert. Beweise durch Annahme, damit die naturalistische Theorie überleben konnte.
Die Wissenschaft weiß, dass ein kurzes Alter für das Auftreten kleiner Artenvariationen und sogar für das Aussterben vieler Arten mehr als ausreicht. Aber ohne die langen Zeitalter hätte die Evolution der Arten nicht genügend Zeit gehabt.
Ohne die langen Zeiträume verliert die Evolutionstheorie das wichtigste Element ihrer Glaubwürdigkeit!
Auf einer Website, die „Beweise für die Evolution“ anzuführen versucht und den Kreationismus kritisiert, sagt der Autor Folgendes: „Das ist das Schöne an der Wissenschaft – ihre Theorien werden ständig anhand beobachteter Daten und, wenn die Daten darauf hinweisen, der Theorie bewertet.“ wird je nach Bedarf geändert oder abgelehnt.“27 Wir Kreationisten stimmen uns voll und ganz zu!
Dieser Vorschlag muss jetzt nur noch auf die evolutionistische These angewendet werden, da der kreationistische Vorschlag bereits weithin angewendet wurde!
U m M it o q u e N ã o M o r r e
Die Idee eines langen Zeitalters hat das gegenwärtige Denken so stark durchdrungen, dass selbst die offensichtlichsten Argumente gegen einen solchen Vorschlag nicht mehr berücksichtigt werden. Was wir gesehen haben, ist die Wiederholung eines naturalistischen Vorschlags über Millionen und Abermilliarden von Jahren, der immer wieder als wahr dargestellt wird, auch wenn die wissenschaftlichen Beweise dagegen sprechen.
Es scheint eine Haltung zu sein, in der dieselbe Idee, wenn sie unzählige Male wiederholt wird, die nötige Glaubwürdigkeit gewinnt.
Aber wie wir bereits gesehen haben, beim Vergleich der ursprünglichen Implikationen der
25 Charles Darwin, On the Origin of Species by Means of Natural Selection, herausgegeben von John Murray, London, 1859, Erstausgabe, S. 97.180.
26 Das Gleiche, S. 74,27 www.gate.net/~rwms/crebuttals.html (29. März 2007).
193
Wenn wir die grundlegenden Annahmen der Datierungsmethoden mit den Beweisen vergleichen, sehen wir, dass der Zeitraum nicht lang, sondern kurz war. Dies passt perfekt zum Vorschlag einer neuen Kreation und zu einem intelligenten Design; weil der kreationistische Vorschlag vollkommen kohärent ist und mit wissenschaftlichen Fakten übereinstimmt, wodurch die Notwendigkeit von Ad-hoc-Postulaten und Annahmen, die auf Unsicherheiten basieren, entfällt.
Der naturalistische Vorschlag von Millionen und Milliarden Jahren muss täglich wie ein Echo wiederholt werden und versucht, sich auf kompromittierende Weise für die Wissenschaft als selbstverständlich zu etablieren.
Karl R. Popper, emeritierter Professor für Philosophie an der University of London, sagte: „Ich bin zu dem Schluss gekommen, dass der Darwinismus keine überprüfbare wissenschaftliche Theorie ist, sondern ein metaphysisches Forschungsprogramm, ein möglicher Bezugsrahmen für überprüfbare wissenschaftliche Theorien.“28
Aber jede wissenschaftliche Theorie muss überprüfbare Vorschläge haben, damit keine Mythen entstehen, wie etwa die Vorstellung von langen Zeitaltern. Und das ist ein Mythos, der nicht stirbt!
28 Karl R. Popper, Unended Quest: An Intellectual Autobiography, 1974, Open Court, La Salle, III, Revised Edition, 1982, S. 168 (Hervorhebung im Original).
KAPITEL 7
A O r ig e m d o
KATASTROPHE: Geo f i s i c a und Hydro d i n a m i c a
„Es ist unmöglich, nicht über Katastrophen zu reden. WAS SIE EXISTIERTEN UND WEITER EXISTIERTEN, IST
A L G O ALÉM D A C O N T E S T A Ç Ã O . A D I F I C U L D A D E E N C O N T R A - S E NUR AM E NT E N A IN T E R P R E T A Ç Ã O D A S
P R O P O R T I O S DIESER VERANSTALTUNGEN.“
„G e ó l o g o s d e v e m d e i x a r o d o m í n i o e s p e c í f i c o d a c i ê n c i a q u a n d o s e t o r n a m h i s t o r i a d o r s ...
S e p e s s o a s s o u e n a o s e f o r m a r a m e m g e o l o g y c a n d e n v e l v e r a t i o n h i s tor i c a g e o g y ,
DANN SOLLTEN ANDERE, DIE AUCH KEINE GEOLOGEN SIND, DIE MÖGLICHKEIT HABEN, ES ZU KRITISIEREN.“
H EN RY MORRIS, PH.D., E JOHN C. WHITCOMB, IH .D .
196 c i". We w : n O C O M E ç o :J
Einschlag des Kometen Shoemaker-Levy 9 mit dem Planeten Jupiter (Juli 94).
(Fotos: Hubble Space Telescope Comet Team und NASA)
U m T r m o C o m u m
Der Katastrophismus ist eine wissenschaftliche Hypothese, die sowohl von Kreationisten als auch von Naturforschern verwendet wird. Zusammenfassend heißt es, dass die Erde von gewalttätigen, plötzlichen und kurzlebigen Ereignissen mit lokalen oder globalen Auswirkungen betroffen ist.
Ein typisches Beispiel ist die Theorie zum angeblichen Aussterben der Dinosaurier. Nach dieser Theorie hätte der Einschlag eines Asteroiden mit einem Durchmesser von etwa 10 km vor 65 Millionen Jahren die Kreidezeit beendet. 70 % aller Arten, einschließlich der Dinosaurier, wären ausgestorben.
Das vorherrschende Paradigma der naturalistischen Geologie, der Uniformitarismus, auch als Gradualismus bekannt, ist heutzutage in dieser Frage flexibler und versucht, eine Vision zu integrieren, in der katastrophale Ereignisse als Teil der Geschichte des Planeten Erde betrachtet werden.
Katastrophe ist beobachtbar
Eugene M. Shoemaker, der Begründer des Fachgebiets Planetary Science, war der Erste, der nachwies, dass Einschläge durch Meteore und Asteroiden sowohl das Leben als auch das Biosystem der Erde beeinflussen.1 Seine Studien zeigten auch, dass durch Einschläge verursachte Ereignisse in der Sonne sehr häufig vorkommen System.
Das jüngste Ereignis, das diese Entdeckung veranschaulicht, war die Abfolge von Einschlägen, die Teile des Kometen Shoemaker-Levy 9 zwischen dem 16. und 22. Juli 1994 auf dem Planeten Jupiter verursachten. Insgesamt gab es 21 Einschläge. Das größte von ihnen, das G-Fragment, traf am 18. den Planeten Jupiter, hinterließ einen dunklen Fleck mit einem Durchmesser von etwa 12.000 km und setzte eine Energie frei, die 6 Millionen Megatonnen entspricht (das gesamte Atomarsenal, das auf dem Planeten existiert, würde einen freisetzen). Energie von 750-mal kleiner!).
Arzt Shoemaker hat richtig beobachtet, dass solche Ereignisse „Abdrücke“ auf Himmelskörpern hinterlassen, seien es Planeten oder Monde. Unser eigener Mond mit seinen vielen Kratern ist ein Beispiel. Diese Markierungen wurden von Raumsonden fotografiert. Auf Seite 223 sind mehrere Bilder der Monde zu sehen, die die Planeten des Sonnensystems umkreisen.
Die Kruste von Planeten wie Merkur, Venus, Erde und Mars ist von diesen Einschlägen geprägt. Ein solcher Meilenstein, der vom Rover Opportunity ausführlich untersucht wurde, ist der Victoria-Krater auf dem Planeten Mars. Eine Kartierung der Oberfläche des Planeten Mars, die solche Einschläge zeigt,
1 www.britannica.com/eb/article-9114891/Shoemaker-Eugene-Merle
0 R ! G C, A T A S 197
Rover-Gelegenheit)
Dies wurde von der Sonde Mars Reconnaissance Orbiter durchgeführt. Der Planet Erde weist Spuren vergangener Ereignisse auf. Solch
Markierungen sind Zeugnisse transformativer Ereignisse. Eine Einschätzung des Ausmaßes der durch diese Ereignisse im System verursachten Veränderungen kann aus lokalen und globalen Beobachtungen entwickelt werden.
Beispielsweise schleudert ein Vulkanausbruch Asche kilometerweit in die Höhe. Diese Asche wird durch atmosphärische Strömungen in verschiedene Regionen des Planeten transportiert, auch in abgelegene Gebiete wie die Antarktis. Dort lagern sie sich in den angesammelten Eisschichten ab. Eine Untersuchung der gefundenen Aschemenge kann ein Indikator für die Intensität des Vulkanausbruchs sein. Die Größe eines Kraters, der durch den Einschlag eines Meteoriten oder Asteroiden entsteht, verrät die Menge an Energie, die zum Zeitpunkt des Einschlags freigesetzt wird. Die Menge der durch den Einschlag ausgestoßenen Masse, die Intensität der Stoßwelle und andere Faktoren können auch durch die Untersuchung der Eigenschaften des Kraters beurteilt werden.
Victoria-Krater auf dem Mars, Ansicht
Spitze
(Foto: NASA – Mars Reconnaissance
Orbiter)
Ursache und Wirkung
Naturkatastrophen haben viele verschiedene Ursachen. Unter natürlichen Quellen versteht die Wissenschaft solche, die nicht auf menschliches Eingreifen zurückzuführen sind. Ein Beispiel für menschliches Eingreifen ist die globale Erwärmung, die der Planet Erde erlebt.
Diese Naturkatastrophen lassen sich insbesondere nach ihrem Ursprung kategorisieren: Einschläge, vulkanische Aktivitäten, seismische Aktivitäten und atmosphärische Aktivitäten. Für die Untersuchung jedes dieser Ereignisse nutzt die Wissenschaft Bereiche, die in ihrer Kombination eine möglichst vollständige Erklärung des Ereignisses und seiner Auswirkungen ermöglichen. Im Allgemeinen steht die Untersuchung jeder Katastrophe neben einigen einzigartigen Aspekten in direktem Zusammenhang mit drei wichtigen Bereichen: der Intensität der verursachenden Quelle, der Dauer des Ereignisses und seinem Ausmaß.
Die Bewertung der Auswirkungen solcher Ereignisse sowohl auf die geoklimatische Struktur des Planeten als auch auf die Leistung des Ökosystems und der darin vorhandenen Artenvielfalt ist für die Wissenschaft von großem Interesse, da sie tiefgreifende Auswirkungen auf die Untersuchung damit verbundener Theorien hat zu den Ursprüngen.
198 C o M O T u D o C O rvi i r; von U
Auswirkungen
Cratera Kaali -110 m (Saaremaa, Estland)
Chicxulub-Krater - 170 km Yucatan, Mexiko
Eines der dramatischsten Ereignisse ist der Einschlag eines Meteors oder Asteroiden auf der Oberfläche unseres Planeten. Die Spuren, die ein solcher Einschlag hinterlässt, offenbaren relevante Aspekte des Ereignisses und öffnen Türen für die Untersuchung seiner Auswirkungen.
Ein in die Erdatmosphäre eindringendes Objekt wird durch Reibung abgebremst. Die durchschnittliche Geschwindigkeit, mit der solche Objekte in die Erdatmosphäre eindringen, beträgt 10 bis 20 km/s. Beim Aufprall wird sofort enorme kinetische Energie freigesetzt, die eine Explosion ähnlich einer Atombombe erzeugt. Kleine Objekte zerfallen normalerweise in der Atmosphäre aufgrund des durch Reibung erzeugten Drucks und der Hitze, lange bevor sie den Boden erreichen. Meteoriten mit einem metallischen Kern aus Eisen und Nickel würden jedoch nicht so große strukturelle Schäden erleiden und auf der Planetenoberfläche einschlagen und eine heftige Explosion verursachen.
Seismographen registrieren jedes Jahr Einschläge von mehreren Kilotonnen. Asteroiden und Meteoriten, die es schafften, die Atmosphäre zu durchdringen und die Oberfläche des Planeten zu erreichen, hinterließen Spuren in Form eines Kraters.
Auf der Oberfläche unseres Planeten wurden bereits etwa 200 Krater identifiziert. Einige sind aufgrund der durch Erosion und in einigen Fällen durch Vegetationsbedeckung verursachten Abnutzung schwer zu erkennen. Einer der bekanntesten Krater ist Chicxulub auf der Halbinsel Yucatan in Mexiko; Dieser Krater wird aufgrund der 1980 von Luis Alvarez aufgestellten Hypothese mit dem möglichen Einschlag in Verbindung gebracht, der zum Verschwinden der Dinosaurier geführt hat.2
Der Durchmesser der identifizierten Krater liegt zwischen knapp über 100 m und etwa 300 km, wie im Fall des Vredefort-Kraters in Südafrika. Eines der großen Probleme bei diesen Veranstaltungen sind die ihnen zugeordneten Termine. Die im vorherigen Kapitel besprochenen Methoden sind die zur Datierung verwendeten Methoden. Wir haben bereits gesehen, dass sie, gelinde gesagt, fragwürdig sind.
Ein Teil unseres Wissens über die Kraterbildung stammt aus ähnlichen Untersuchungen von Kratern, die bei unterirdischen Atombombenexplosionen entstehen. Mithilfe der Kenntnis der freigesetzten Energie und der Größe des bei solchen Ereignissen entstehenden Kraters konnten Wissenschaftler das Ausmaß einiger durch Meteore und Asteroiden verursachter Einschläge abschätzen.
Man geht davon aus, dass Einschläge auf dem Meer größere Schäden anrichten könnten als Einschläge an Land. Die Wassermenge, die durch einen Asteroideneinschlag wie im Chicxulub-Krater verdrängt worden sein könnte
2 Obwohl Alvarez‘ Arbeit bereits 1980 veröffentlicht wurde, stellte ein anderes, viel früheres Werk bereits eine solche Hypothese auf. Siehe M. W. DeLau Benfels, Dinosaur Extinctions: One More Hypothesis, Journal of Paleontology, Band 30, Nr. 1, Januar 1956, S. 207-218.
199
Tenoumer-Krater – 1,9 km Lonar-Krater – 1,83 km Barringer-Krater – 1,2 km Mauretanien Buldhana, Indien Arizona, Vereinigte Staaten
Amguid-Krater - 450 m Algerien
Sirente-Krater -130 m Italien
Tsunamis von 50 bis 100 Metern Höhe. Über die tatsächlichen Auswirkungen solcher Ereignisse weiß die Wissenschaft jedoch noch wenig.
Aus wissenschaftlichen Erkenntnissen wissen wir, dass das größte Fragment des Meteors, der die neun Krater in Saaremaa, Estland, erzeugte (siehe Foto auf der gegenüberliegenden Seite), eine Explosion mit größerer Energie ausgelöst hätte als die, die durch die auf Hiroshima abgeworfene Bombe freigesetzt wurde. Bäume im Umkreis von 6 km wurden durch die Hitze des Aufpralls verbrannt. Beachten Sie, dass wir es mit den Ergebnissen eines Meteoriten zu tun haben, der einen Krater mit einem Durchmesser von 110 m erzeugt hat, und nicht mit den Ergebnissen eines Meteoriten, der einen Krater mit mehreren zehn Kilometern Durchmesser erzeugt hat.
Obwohl Naturforscher solche Ereignisse in der fernen Vergangenheit vermuten, können ihre unmittelbaren Folgen sowohl für die Geologie und das Klima als auch für die Artenvielfalt nicht minimiert werden.
Studien zu solchen Einschlägen liefern immer noch allgemeine Schlussfolgerungen, obwohl einige Ergebnisse spezifischer erzielt werden können, indem man die Ausmaße eines durch eine Detonation entstandenen Kraters vergleicht
Die Richat-Formation, Sahara-Wüste (Mauretanien), mit
Ein Durchmesser von etwa 30 km wurde ursprünglich als interpretiert
Es handelt sich um einen Krater, der durch einen Einschlag entstanden ist. derzeit dies
Als Formation gilt nur eine symmetrische Erhebung, die vorhanden ist
wurden durch Erosion freigelegt. (Foto: NASA/GSFC/MITI/ERSDAC/JAROS, und
(ASTER-Wissenschaftsteam aus den USA und Japan)
200
Krater, der durch einen Atomtest (Sedan) entstanden ist
Nevada Test Site (NTS – Nevada Test Site) (USA), in der
am 6. Juli 1962.
Foto von der National Nuclear Security Administration/Nevada Site Office
atomar, unter der Erde, mit dem eines Kraters, der durch einen Einschlag entstanden ist. Beispielsweise erzeugte eine 100 Kilotonnen schwere Atombombe, die in einer Tiefe von 193,5 m vergraben wurde, einen Krater (Sedan-Krater) mit einem Durchmesser von 390 m und einer Tiefe von 97,5 m und verdrängte dabei etwa 12.000.000 Tonnen Erde3 (1 Kilotonne entspricht 1 Kt TNT, entspricht 1012 Kalorien). , auch Terakalorie (Tcal) genannt, was ebenfalls 4184 x 1012 Joule (Terajoule oder TJ) entspricht.
In diesem Beispiel wurde die Bombe vergraben (in 193,5 m Höhe). Im Falle eines Asteroiden oder Meteors hätte dieser bereits viel Wärme an die Atmosphäre abgegeben (aufgrund der Reibung mit der Luft) und eine verheerende Schockwelle erzeugt (aufgrund des Drucks mit der Luft in der Atmosphäre). Außerdem wäre im Moment des Aufpralls eine enorme Wärmemenge freigesetzt worden und eine große Menge Sediment wäre in die Atmosphäre geschleudert worden (wenn der Aufprall an Land stattgefunden hätte. Im Ozean hätte es gigantische Tsunamis ausgelöst).
Allein diese Aspekte hätten ausgereicht, um die Bedingungen des Systems lokal und je nach Ausmaß der Auswirkungen sogar global zu verändern. Das Ausmaß der Zerstörung des Ökosystems ist aufgrund seiner Komplexität und Interaktivität mit dem Ökosystem noch immer nicht vollständig verstanden.
Abhängig von der Menge der zerstörten Biomasse (Pflanzen und Tiere) würde es in kurzer Zeit (Monate, Jahre oder sogar Jahrzehnte) zu einer Übertragung von Kohlenstoff von einem Reservoir zum anderen (siehe Seite 187) kommen, was zu einer fehlerhaften Datierung führen würde Lesen innerhalb einer einheitlichen Skala
3 www.nv.doe.gov/library/photos/photodetails.aspx?ID=799
Rianist. Abhängig von der kinetischen Energie und dem Trägheitsmoment, das im Moment des Aufpralls auf die tektonischen Platten übertragen wird, könnten diese Druck auf das Magma ausüben, was zu Störungen im elektrischen Strom führen würde, der das Erdmagnetfeld erzeugt, und in diesem zu Schwingungen führen würde. Solche schnellen Schwingungen könnten fälschlicherweise als langsame und allmähliche Schwingungen des Erdmagnetfelds während langer geologischer Zeitalter identifiziert werden (Uniformitarismus). Abhängig von der Menge der in die Atmosphäre freigesetzten Partikel könnte die Blockierung des Sonnenlichts zu einer schnellen Abkühlung und damit zu einer raschen Vereisung (zehn oder hundert Jahre) führen, mit einer Umkehrung, die mit der Abnahme der Menge des blockierten Sonnenlichts und der Stabilisierung verbunden ist das System. Ein solches Phänomen könnte aufgrund seiner Ausdehnung als ein Hunderttausende Jahre dauernder Vereisungsprozess (uniformitärer Maßstab) beschrieben werden, bei dem nur wenige Jahrhunderte nötig wären.
Seit den 80er Jahren hat die Untersuchung dieser Ereignisse in der wissenschaftlichen Gemeinschaft, vor allem in den Geowissenschaften, Interesse geweckt, da ihr Hauptaspekt mit den Veränderungsprozessen des Planeten zusammenhängt. Gruppen aus den Bereichen Planeten- und Weltraumwissenschaften haben Daten und Informationen zusammengestellt, die zum Verständnis dieser Ereignisse beitragen könnten. Dennoch ist den Disziplinen Geologie, Geophysik, Ozeanographie, Hydrologie, Glaziologie, Klimatologie und Atmosphärenwissenschaften nur sehr wenig über die Auswirkungen bekannt. Da sie gleichzeitig notwendig sind, um die Veränderungen auf der Erde zu erklären, die das Ergebnis eines einzelnen Ereignisses in der Vergangenheit sein könnten, besteht eine große Herausforderung für die Entdeckung der wahren Geschichte des Planeten Erde.
Dennoch können wir ein wenig das Ausmaß der durch einen Aufprall verursachten Verwüstung erkennen. Wir wissen, dass Darwins Annahme, dass „das Gesicht der Natur über lange Zeiträume einheitlich bleibt“4, angesichts der auf der Oberfläche des Planeten Erde identifizierten Krater in der Größenordnung von 50 bis 300 km Durchmesser zumindest höchst fraglich ist . , um nicht falsch zu sagen.
Ein letztes Wort zu den Auswirkungen auf die Datierung. Das den Kratern zugeordnete Alter geht von dem Uniformitarismus der Datierungsmethoden aus. Allerdings beseitigen solche Ereignisse den Uniformitarismus, sodass die Annahme der Systemstabilität (Konstanz der Bedingungen und Beständigkeit der Phänomene) jeder wissenschaftlichen Grundlage entbehrt. Daher können Einschläge, die auf Millionen und Milliarden von Jahren datiert sind, nicht als absolute Daten anerkannt werden. Wie bereits in Kapitel 6 gesehen, deuten Datierungsmethoden bei richtiger Auswertung auf ein junges System hin.
Eine Auswirkung von großem Ausmaß hätte Auswirkungen auf:
AtmosphäreAtmosphärenchemieKlimatologieMeteorologieHydrometeorologiePaläoklimatologie
Biosphäre Biogeographie Paläontologie Palynologie Mikropaläontologie Geomikrobiologie
HydrosphäreHydrologie Glaziologie Limnologie Hydrogeologie Ozeanographie Chemische Ozeanographie Meeresbiologie Meeresgeologie Paläozeanographie Physikalische Ozeanographie
Lithosphäre oder Geosphäre Geologie Glaziologie Sedimentologie Stratigraphie Geochemie Geomorphologie Geophysik Geochronologie Geodynamik Geomagnetismus Gravimetrie Seismologie Hydrogeologie Mineralogie Kristallographie Gemmologie Petrologie Vulkanologie
PädosphäreBodenkundeEdaphologiePedologie
4 Charles Darwin, On the Origin of Species by Means of Natural Selection, herausgegeben von John Murray, London, 1859, Erstausgabe, S. 74.
Vulkan Irazu, Costa Rica
(Foto: Dirk van der Made)
Bei iv id a d e s Vu l câ n ic a s
Durchschnittliche S02-Konzentration zwischen dem 23.10. und dem 1.11. 2005 über dem Vulkan Sierra Negra (Galápagos-Inseln, Ecuador).
Vulkane kommen auf dem Planeten Erde sehr häufig vor. Es gibt über 2000 Vulkane. Einige kommen auf Kontinenten vor, andere in Ozeanen und wieder andere in Gletschern. Einige sind aktiv, während andere ruhen oder ausgestorben sind. Die meisten von ihnen erzeugen lokalisierte Ereignisse für eine lokale Geologie. Einige Fälle scheinen einen globalen Einfluss gehabt zu haben.
Normalerweise verändert ein Vulkan vor allem die Landschaft eines Ortes. Einige Inseln sind vulkanischen Ursprungs. Einige Berge sind erloschene Vulkane. Einige Formationen sind das Ergebnis von Lava, die aus einem Vulkan ausgetreten ist. Zweifellos haben Vulkane das Erscheinungsbild des Planeten Erde verändert. Aber das ist geologisch betrachtet ein relativ kleiner Maßstab.
Aber die Wissenschaft weiß, dass Vulkanausbrüche eine viel größere Tragweite haben als eine kleine lokale geologische Veränderung.
Saurer RegenEin Vulkan kann nicht nur die Landschaft beeinflussen
gelangen direkt in die Atmosphäre und verändern die Verhältnisse zwischen den dort vorhandenen chemischen Elementen. Jüngste Untersuchungen des Ulawun-Vulkans in Papua-Neuguinea haben beispielsweise ergeben, dass er bei jüngsten Ausbrüchen 7 kg S 02 (Schwefeldioxid) pro Sekunde produzierte, was etwa 2 % der gesamten globalen Emission dieses Gases entspricht.5The S02-Gas in der Atmosphäre ist für den sogenannten „sauren Regen“ (H2S04) verantwortlich.
Dieser „saure Regen“ führt dazu, dass der pH-Wert des Wassers in Seen und Flüssen sinkt,
5 A.J.S. McGonigle, C. Oppenheimer, V.l. Tsanev et al., Schwefeldioxidflüsse aus den Vulkanen Papua-Neuguineas, Geophysical Research Letters, 2004, Vers 31, Ausgabe 8.
Dadurch werden sie saurer, was die Artenvielfalt im Wasser verringert. Es sind Fälle bekannt, in denen es in einigen Bächen und Bächen Insekten und sogar einige Fischarten vernichtet hat.6
Der Boden kann auch durch „sauren Regen“ schädlich verändert werden, indem Mikroben absterben, die einem niedrigen pH-Wert nicht standhalten können. Durch die Säure stellen die Enzyme dieser Mikroben ihre Arbeit ein. Andere Aspekte hängen mit Bodennährstoffen und Mineralien zusammen, die ebenfalls abgebaut werden und abnehmen.
Auch Wälder und Vegetation im Allgemeinen sind direkt betroffen. „Saurer Regen“ verlangsamt das Wachstum von Pflanzen, verbrennt ihre Blätter und führt im Extremfall zum Absterben aller Bäume in einem bestimmten Gebiet. Die Vegetation in großen Höhen ist viel anfälliger, da sie ständig von Wolken umgeben ist.
Behinderung der von der Sonne übertragenen Strahlung Ein weiterer Aspekt im Zusammenhang mit Vulkanismus ist die Abnahme der Strahlung
übertragene Sonnenenergie aufgrund der Ansammlung von Partikeln, die in die Atmosphäre freigesetzt werden (siehe nebenstehende Grafik). Am 29. März 2007 löste der Vulkan Shiveluch auf der Halbinsel Kamtschatka in Russland einen Ausbruch aus, der eine Aschewolke in eine Höhe von fast 10 km schleuderte.
Diese Partikel werden vom Wind getragen und gestreut und erzeugen in der Atmosphäre einen „Film“, der die von der Sonne kommende Strahlung reflektiert und vor allem zu einem Temperaturabfall führt. Dieses Phänomen ist als globales Dimmen bekannt und wurde von der Wissenschaft ausführlich untersucht.
■ . , . .
Eruptionen
AqiílO Piiô'$ô j V 8.SS M S N ,VE1 A VEI A
j Pi r 1
VEi Chkhon
17 A N VEI 5
|l
cfUtXi51 N El 6
Observatorium für atmosphärische Transmission,
Mauna Loa, Hawaii, USA
6 Siehe Website der U.S. Environmental Protection Agency, www.epa.gov/acidrain/effects/surface_water.html
204 o y o I i.i d c C o ¥ . C ; i.1
Vom Vulkan Agostin (Alaska) in die Atmosphäre geschleuderte Asche
Ausbruch des Vulkans Tungurahua (Ecuador)
Ein Großteil der derzeitigen globalen Verschleierung ist auf die vom Menschen verursachte Umweltverschmutzung zurückzuführen.
Eine sehr interessante Fallstudie zu diesen Aspekten ist der Vulkan Cracatoa in Indonesien. Eine Reihe katastrophaler Explosionen gipfelte in der Eruption am 26. und 27. August 1883. Der Vulkan setzte mehr als 25 km3 Lava frei, erzeugte eine etwa 80 km hohe Aschesäule, schoss in die Atmosphäre und erzeugte Tsunamis von 30 m Höhe. Zwei Drittel der Insel wurden durch den Ausbruch zerstört. Am Morgen des 27. war eine Serie von vier Explosionen zu hören. Die letzte wurde von Menschen in Australien (3.500 km entfernt) und auf Rodrigues Island (4.800 km entfernt, mitten im Indischen Ozean) gehört. Die durch die Explosionen erzeugten atmosphärischen Stoßwellen hallten sieben Mal um den Planeten herum und konnten über einen Zeitraum von fünf Tagen nachgewiesen werden.
Es wird geschätzt, dass auf einer Fläche von etwa 1.000.000 km2 etwa 18–21 km3 vulkanisches Material (Igninbrit) abgelagert wurden. Durch Ausbrüche bis in die 1930er Jahre war bereits eine neue Insel entstanden. In den Jahren nach dem Krakatoa-Ausbruch kam es zu einem Rückgang der globalen Durchschnittstemperatur um 1,2 °C, was auf die große Menge an Schwefeldioxid zurückzuführen ist, das in die Atmosphäre freigesetzt und von den Winden getragen wird, und zwar durch den Anstieg der globalen Schwefelsäurekonzentration (H2S04). in den Cirrus (Wolken in großer Höhe), wodurch das Reflexionsvermögen der Wolken erhöht wird.7 Die Menge an Partikeln in der Atmosphäre, die aus dem Ausbruch des Vulkans resultierte, sorgte dafür, dass der Planet mehr als zehn Jahre lang in der Morgen- und Abenddämmerung einen rötlichen Himmel erlebte. und der Mond erscheint seit mehr als zwei Jahren bläulich. Derzeit existiert an der Stelle der alten Insel Krakatau eine neue Vulkaninsel namens Anak Krakatau (Sohn von Krakatau). Im August 1930 übernahm sie einen Posten über der Meeresoberfläche. Dieses Beispiel zeigt, wie wichtig die beiden Aspekte des Vulkanismus für das Klimagleichgewicht des Planeten sind.
Anak Krakatau (Foto NASA, iconos satélite – 11.06.2005)
MegaeruptionenAufgrund der Tatsache, dass die meisten vulkanischen Aktivitäten Ereignisse sind
Über eine mögliche globale Katastrophe wurde bislang kaum etwas gesagt. Wieder einmal stellt sich die Frage, ob es zu vulkanischer Aktivität auf dem Planeten Erde gekommen sei
immer wieder wie das, was wir heute erlebt haben. Die Antwort mag viele überraschen. Der Krakatoa-Vulkan scheint jedoch nicht das größte Ereignis gewesen zu sein
7 Siehe die Veröffentlichungen von Stephen Self und Micahel R. Rampino, The 1883 eruption of Krakatau, 1981, Nature 294:699-704. DOI:l 0.1038/294699a0;eTom Simkin und Fiske S. Richard (Herausgeber) Krakatau, 1883 – The Volcanic Eruption and Its Effects, Washington, D.C., Smithsonian Institution Press, 1983.
A Ö B 3 r n o 0 a a s . t r O ! M 205
im Zusammenhang mit dem Vulkanismus, den der Planet Erde bereits erlebt hat.
das Deccan-Plateau genannt wird. In dieser Region findet man die weltweit größte Menge an schichtweise erstarrter Lava (Basalt). Diese Schichten sind zusammen etwa 1 bis 2 km dick und bedecken eine Fläche von etwa 500.000 km2. Es wird angenommen, dass die ursprünglich abgedeckte Fläche 1.500.000 km2 betrug. Anhand der derzeit beobachteten Daten wird geschätzt, dass das Volumen der verschütteten Lava etwa 500.000 km3 betrug!
Einige erste Studien deuten darauf hin, dass das Ereignis, das das Deccan-Plateau hervorgebracht hat, etwa zwei Millionen Jahre gedauert hat (einige Wissenschaftler unterstützen diese Hypothese noch immer). Neuere Studien zeigen, dass sie sich in einer Million Jahren gebildet hätten. Einige Wissenschaftler haben dieses Ereignis (von Naturforschern nach der Ar-Ar-Methode auf 68 bis 64 Millionen Jahre datiert) als eine weitere mögliche Ursache für das Aussterben der Dinosaurier in Verbindung gebracht.
Wir beschäftigen uns erneut mit der Gültigkeit von Altersangaben, die durch Datierungsmethoden ermittelt wurden, die im vorherigen Kapitel besprochen wurden. Das Deccan-Plateau ist nicht der einzige Ort auf dem Planeten mit solchen Eigenschaften. Auch andere Hochebenen wie Colorado und Columbia (USA) und Ontong-Java (Indonesien) weisen solche Merkmale auf. Wie wir bereits gesehen haben, hätten Ereignisse dieser Größenordnung eine große Veränderung auf dem Planeten Erde verursacht, nicht nur in geologischer Hinsicht, sondern vor allem in klimatischer Hinsicht.
Als letztes Beispiel im Zusammenhang mit Vulkanismus soll der sogenannte limnische Ausbruch erwähnt werden, bei dem eine große Menge CO2 vom Grund eines Vulkansees schlagartig in die Atmosphäre geschleudert wird und dabei seinen Kohlenstoffanteil verändert.
Der in Afrika gelegene Nyos-See setzte 1986 etwa 80 Millionen Kubikmeter CO2 in die Atmosphäre frei und tötete etwa 1700 erstickte Menschen. Damit es zu einer limnischen Eruption kommt, muss viel CO im Seewasser verdünnt werden. Die Hauptquelle für CO2 sind die vulkanischen Gase, die am Grund des Sees freigesetzt werden. Normalerweise erleichtert der Druck der Wassersäule (der Nyos-See hat eine durchschnittliche Tiefe von 210 m) die Verdünnung von CO2. Der See ist gewissermaßen wie eine Limonadenflasche. Der Nyos-See hat eine Fläche von etwa 1,58 km2. Der Kivu-See, zwischen der Republik Kongo und Ruanda, hat eine Fläche von 2.700 km2, ein Wasservolumen von 500 km3 und weist einen hohen CO2-Gehalt auf. Es hat noch nicht die Schwelle erreicht, die zu einer limnischen Eruption führt.
Wir haben es erneut mit Ereignissen zu tun, die unabhängig von ihrer Dauer etwas hervorgebracht haben, das nicht zum täglichen Leben des Planeten gehört (Aktualismus). Auch hier ist die Annahme einer einheitlichen Annahme ein vermeidbarer Fehler.
Deccan-Plateau (Indien) und Himal-Gebirge im Norden
Nyos-See, Kamerun
Kivu-See, zwischen der Republik Kongo und Ruanda.
(NASA-Foto: Landsat-5)
206
Zwischen 1963 und 1998 überwachte seismische Aktivität: 358.214 Epizentren wurden identifiziert.
1906 zerstörte ein Erdbeben die Stadt San Francisco (USA).
Bei iv id a d e s Sís m ic a s
Ao Ning, Thailand, zum Zeitpunkt der Ankunft des Tsunamis 2004
(Quelle: David Rydevik)
Dorf in der Küstenregion der Insel Sumatra, nach dem Tsunami 2004.
Erdbeben und Flutwellen sind bekannte seismische Aktivitäten. Sie kommen aufgrund von Verwerfungen und der Bewegung tektonischer Platten auf natürliche Weise mit großer Häufigkeit auf dem Planeten vor. In nur 35 Jahren der Überwachung (1963 bis 1998) wurden 358.214 Epizentren seismischer Aktivität registriert. ,
Erdbeben haben im Allgemeinen lokale Folgen. Nach aktuellen Theorien haben tektonische Plattenbeben ihren Ursprung in einer Tiefe von maximal 10 km. Ein Großteil der bei einem Erdbeben freigesetzten Energie wird in Wärme umgewandelt. Daher verringern Erdbeben die verfügbare potentielle Energie des Planeten, obwohl diese verlorene Energie nicht erheblich zu sein scheint.8
Das Shaanxi ten'emoto am 23. Januar 1556 gilt als die größte Naturkatastrophe ihrer Art. Etwa 830.000 Menschen starben bei dem Ereignis. Das zweitstärkste Erdbeben und das heftigste, das jemals von einem Seismographen aufgezeichnet wurde (9,1 und 9,3), ereignete sich am 26. Dezember 2004. Sein Epizentrum lag nahe der Westküste der Insel Sumatra in Indonesien. Das Erdbeben löste einen Tsunami aus, der die Küsten mehrerer Länder im Indischen Ozean traf (Bilder rechts). Viele Gebiete wurden völlig zerstört. Etwa 283.000 Menschen starben.
Erdbeben wirken sich direkt auf das lokale Ökosystem aus und verändern die geologischen Merkmale. Die Auswirkungen der Zerstörung sind zwar schnell und massiv, haben jedoch nicht immer dauerhafte Auswirkungen. Zwei sehr wichtige Auswirkungen von Erdbeben sind Erschütterungen und Risse (oder Brüche).
(Foto: Philip A. McDaniel)8 W. Spence, S. A. Sipkin und G. L. Choy, Messung der Größe von Erdbeben, Erdbeben und
Vulkane 21,1989.
O H c 207
Das längste Gebirge der Erde liegt am Grund der Ozeane. Er ist als ozeanischer Rücken bekannt. Die Abbildung zeigt den mittelozeanischen Rücken des Atlantischen Ozeans (die Symmetrie ist auf der sphärischen Karte sichtbar).
aus dem Boden. Das zweite, die Risse, hinterlassen Hinweise auf das Ausmaß des Ereignisses. Viele Regionen mit Rissen auf dem Planeten Erde wurden untersucht, beispielsweise die bekannte San-Andreas-Verwerfung (Santo André) in Kalifornien, USA (siehe nebenstehendes Bild). Sie alle weisen Aspekte des Katastrophismus auf.
Im Allgemeinen werden diese geologischen Verwerfungen aus uniformitärer Sicht untersucht. Daher beziehen sich die Schlussfolgerungen über die Entstehung und Entwicklung jedes einzelnen von ihnen (z. B. Expansion, Bewegung und Entfaltungsraten) konsequent auf den Aktualismus.
Betrachten wir einige relevante Fakten im Zusammenhang mit den geologischen Aspekten des Planeten, um einen weiteren Vorschlag im Zusammenhang mit einem möglichen Ereignis in der Vergangenheit des Planeten Erde im Zusammenhang mit Katastrophen zu bewerten. Die Schallgeschwindigkeit in präkambrischem Granit beträgt 5230 m/s.9 Risse breiten sich aufgrund von Spannungen in Gesteinen mit einer Geschwindigkeit von etwa der Hälfte dieses Wertes aus.10 Wenn wir es also mit Rissen in der Erdkruste zu tun haben, haben wir es mit Ereignissen zu tun schnell, wobei eine große Menge Energie freigesetzt wird.
Wir wissen, dass tektonische Platten und Kontinente sozusagen in Bewegung sind. Eine Frage von großem Interesse ist, ob diese beobachtete Bewegung in der gesamten Geschichte des Planeten Erde ungefähr gleich war (Aktualismus) oder ob sie die endgültige und resultierende Auswirkung einer größeren und singulären Bewegung in der Vergangenheit ist (Katastrophismus).
San-Andreas-Verwerfung, Kalifornien, USA (Foto NASA)
9 Robert S. Carmichael, Handbook of Physical Properties of Rocks, Bd. 2, Boca Raton, FI, CRC Press, 1982, S. 310.
10 B.R. Rasen eT.R. Wilshaw, Fracture of Brittle Solids, Cambridge University Press, NY, 1975, S. 91 -100.
208 C r. c T i d o C v r c o u
Längsdriftbewegung von Kontinenten (Südamerika und Afrika)
Ein praktisches Beispiel für diese Überlegungen bietet uns die von Alfred L. Wegener und Frank B. Taylor11 vorgeschlagene Kontinentaldrift. Südamerika entfernt sich mit einer Geschwindigkeit von 5,7 cm pro Jahr von Afrika (ungefähr so schnell wie ein Fingernagel wächst). Wenn diese Geschwindigkeit konstant ist, müsste dieses Ereignis etwa 115 Millionen Jahre andauern (die durchschnittliche Entfernung zwischen Afrika und Südamerika beträgt 6.500 km). Dieses berechnete Alter kann nur dann wahr sein, wenn die Entfernungsgeschwindigkeit konstant ist. Hat diese Bewegung also eine konstante Geschwindigkeit oder nicht?
Wir können beobachten, dass Afrika und Südamerika den Teilen eines Puzzles ähneln. Sie passen zusammen (Bild auf der Seite). Das Gleiche gilt auch für Nordamerika und Europa. Der mittelozeanische Rücken (Gebirgskette mitten im Ozean) liegt sowohl im Nordatlantik als auch im Südatlantik genau in der Mitte zwischen dem amerikanischen Kontinent und dem europäischen und afrikanischen Kontinent.
Dies deutet auf das Auftreten eines Spalts hin, der in der Vergangenheit diese beiden Teile getrennt hätte und eine spätere Trennung durch eine Längsbewegung und nicht durch eine Verschiebung mit Rotation bewirkt hätte, wie das Modell der Plattentektonik nahelegt. Beachten Sie die sphärische Projektionskarte auf der vorherigen Seite, wo die Symmetrie noch deutlicher sichtbar ist.
Dieser Spalt muss Teil eines einzigen Ereignisses gewesen sein. Die Symmetrie legt dies nahe. Dazu müssten wir einen Riss im antiken Pangäa (dem einzigen Kontinent in der Frühzeit des Planeten Erde) haben, von seiner nördlichen Grenze (heute die Region zwischen Grönland und Norwegen) bis zu seiner südlichen Grenze (heute die Region zwischen Feuerland). und nach Südafrika).
Wenn wir unsere Aufmerksamkeit nur auf diese Region beschränken, werden wir sehen, dass die Länge des mittelozeanischen Rückens des Atlantiks zwischen den oben genannten Nord- und Südpunkten dem Ausmaß eines Bruchs im kontinentalen Pangäa entsprechen würde. Dieser Bruch würde zur Entstehung eines neuen Kontinents, Amerikas, und des heutigen Atlantischen Ozeans führen.
Ein tektonisches Ereignis wie dieses könnte mit keinem anderen in der Geschichte des Planeten verglichen werden. Er wäre weit von dem aktuellen Islam entfernt, der von der heutigen Geologie akzeptiert wird. Die Stärke eines solchen Erdbebens würde alle zur Messung aktueller Erdbeben verwendeten Einheiten bei weitem übersteigen und globale Verwüstungen verursachen, die weit über das hinausgehen, was die moderne Zivilisation kennt.
Nimmt man die Länge des Mittelozeanischen Rückens als Spur, die dieser Bruch hinterlassen hat, wären es in dieser Region etwa 20.000 km. Die gleiche Dynamik ist in Bezug auf Afrika und Asien zu beobachten, die sich davon abwandten
11 Frank Bursley Taylor, Bearing of the Tertiary Mountain Belt on the Origin of the Earth's Plan, Bulletin der Geological Society of America, Juni 1910.
A 0 ri D 0 C 209
aus der Antarktis. Schauen Sie sich nur den mittelozeanischen Rücken auf dem Boden des Indischen und Pazifischen Ozeans an. Wenn man davon ausgeht, dass die Schallgeschwindigkeit in präkambrischem Granit 5,23 km/s beträgt, würde ein Spalt, um eine solche Distanz zurückzulegen, Folgendes erfordern:
20.000 km -f (5,23 km/s -f 2) = 7.500 Sekunden oder 2h und 8min!
Dies ist der Fall, wenn wir davon ausgehen, dass der Riss in eine Richtung verläuft und nicht gleichzeitig in entgegengesetzte Richtungen verläuft. Wäre eine solche Theorie plausibel? Das heißt, hätte die Teilung der Kontinente in einem einzigen katastrophalen tektonischen Ereignis stattgefunden oder wäre sie Teil einer Abfolge langsamer und allmählicher Ereignisse gewesen?
Es gibt viele Gründe zu der Annahme, dass es ein einzelnes Ereignis war, das mehrere Ereignisse auslöste, die bis heute andauern. Wir werden uns im letzten Teil dieses Kapitels mit diesem Thema befassen.
Bei iv id a d e s A t m o s fé r ica s
Das Jahr 2005 war von mehreren Katastrophen im Zusammenhang mit atmosphärischen Aktivitäten geprägt. Die größten Spuren hinterließ der Hurrikan Katrina, der die Stadt New Orleans in den Vereinigten Staaten völlig zerstörte. Ereignisse dieser Art kommen auf dem Planeten Erde sehr häufig vor.
Atmosphärische Aktivitäten verursachen nicht nur Hurrikane, Wirbelstürme, Taifune und Tornados, sondern auch Überschwemmungen, Dürren, Hitzewellen, Schneestürme und viele andere Naturkatastrophen.
Diese Ereignisse haben oft lokale Auswirkungen, wie etwa die Dürre der 1930er Jahre in der chinesischen Provinz Sichuan, die zu einer der am längsten bekannten Dürren wurde. Je nach Dauer können diese Phänomene durchaus das Ökosystem eines bestimmten Gebietes des Planeten verändern.
Heute hat die Atmosphäre vor allem aufgrund der Pole eine sehr wichtige Funktion für den Planeten. Allerdings waren sowohl die Antarktis als auch die Regionen am Polarkreis einst Regionen mit warmem Klima. Die Erklärung der konventionellen Geologie besagt, dass der Klimawandel in der Antarktis mit der Bewegung dieses Kontinents zusammenhängt, der in den vergangenen 170 Millionen Jahren Teil des Superkontinents Gondwana war. Ungefähr 145 Millionen Jahre lang wäre es treibend gewesen, bis es vor 25 Millionen Jahren seine heutige Position erreichte. Diese Daten und die Erklärung stammen von denen, die an die naturalistische Annahme des Uniformitarismus glauben.
Tatsache ist, dass diese Regionen nicht immer so kalt und unwirtlich waren wie heute. Der Planet war einst ganz anders als heute.
Hurrikan Katrina (28. August 2005) (NASA-Foto: Terra-Satellit)
Temperaturanomalie (°C)
Hitzewelle in Europa im Sommer 2003
(NASA-Bild: Terra-Satellit)
Überschwemmungen durch den Limpopo-Fluss im Jahr
Mosambik, im Jahr 2000.
210 F
Tektonische Brüche in der Region Valles Marineris (CandorChasma) auf dem Mars. (Foto NASA, Mars Reconnaissance Orbter, MRO)
Dauerhafter Fehler. Fehler
Bisher haben wir gesehen, dass der Planet Erde nicht immer derselbe gewesen sein kann, wie er heute ist. Wir haben auch gesehen, dass Aktualismus (Uniformitarismus) keine wissenschaftliche Annahme ist, die mit den Beweisen übereinstimmt. Allerdings werden die naturalistischen Thesen über den Planeten und das Leben weiterhin allgemein als wahr und unbestritten akzeptiert.
Veränderungen, die sich in der Vergangenheit auf der Erdoberfläche ereignet haben, lassen sich durch heute wirksame Ursachen erklären. „Die Gegenwart ist der Schlüssel zur Vergangenheit.“ (Sir Charles Lyell)12
„...doch über einen langen Zeitraum hinweg gleichen sich die Kräfte so sanft aus, dass das Gesicht der Natur über lange Zeiträume hinweg gleichförmig bleibt, obwohl sicherlich die einfachste Sinnlosigkeit einem Organismus den Sieg über einen anderen beschert.“ Doch unsere Unwissenheit ist so tiefgreifend und unsere Anmaßung so hoch, dass wir uns wundern, wenn wir vom Aussterben eines Organismus hören; Und da wir die Ursache nicht sehen, beschwören wir Kataklysmen, um die Welt zu zerstören, oder erfinden Gesetze über die Dauer von Lebensformen!“ (Charles Darwin)13
Wenn wir diese Zitate vergleichen, die die Grundlage des naturalistischen Denkens bilden, fragen wir uns: Wie lange wird die Wissenschaft ihre Augen vor den Beweisen verschließen? Wie lange wird sie über Massenvernichtung aufgrund katastrophaler Ereignisse sprechen und weiterhin den Stromismus akzeptieren?
Mar t e, Te r r a e a á g u a
Der Planet Mars und der Planet Erde haben viele Ähnlichkeiten. Beide haben eine Rotationsperiode von etwa 24 Stunden: die Erde 23 Std. 56 Min. 4 Sek. und der Mars 24 Std. 37 Min. 23 Sek. Ihre Neigungen in Bezug auf die Rotationsachse sind sehr ähnlich: Erde 23,439 281° und Mars 25,19°. Ihre Atmosphären enthalten Kohlenstoff (CO2), wenn auch in sehr unterschiedlichen Anteilen: Erde 0,038 % und Mars 95,72 %.
Auch die beiden Planeten bergen dasselbe Geheimnis: Wasser. Die Oberflächen beider Planeten zeigen, dass Wasser im Verlauf ihrer Geschichte eine Schlüsselrolle spielte. Das Bild rechts, Region Valles Marineris auf dem Mars, weist auf Flüssigkeitsbewegungen (vielleicht Wasser) und geochemische Bedingungen in der Vergangenheit hin.
12 Charles Lyell, Principles of Geology, John Murray, London, 1. Auflage, 1830, Band 1.13 Charles Darwin, On the Origin of Species byMeans of Natural Selection, herausgegeben von John
Murray, London, 1859, 1. Auflage, S. 74.
D c 211
Erosion durch den Ozean an den Klippen von Southerndown, Wales.
Auf beiden Planeten gibt es viele erosionsbedingte Merkmale, wie auf den Fotos oben und auf der gegenüberliegenden Seite zu sehen ist. Solche von der Zeit hinterlassenen Spuren wie Meeresströmungen, Wind, Regen, Wasser und Wind sind Teil eines großen Rätsels, das die Wissenschaft zu lösen versucht. Beachten Sie noch einmal, dass die Beweise vorhanden sind. Die Interpretationen können fragwürdig sein.
Untersuchen, was Wasser bewirkt hatWissenschaftler beschäftigen sich intensiv mit diesem Aspekt des Wassers, nicht jedoch
nicht nur hier auf der Erde, sondern auch auf dem Planeten Mars. Es gibt Anzeichen dafür, dass es in der Vergangenheit möglicherweise flüssiges Wasser auf dem Mars gab. Noch nichts Endgültiges.
Mit dem, was wir lernen werden, wird die Geschichte des Wassers auf dem Mars im Laufe dieses Jahrhunderts geschrieben. Ob es früher in flüssiger Form existierte und wo es heute wäre, sind Fragen, die uns die Forschung offenbaren kann. Es werden auch Theorien darüber auftauchen, was passiert wäre. Aber was ist mit unserer Geschichte – der Geschichte des Planeten Erde?
Als wir uns mit Fossilien befassten, stellten wir fest, dass sie nicht in normalen Situationen entstehen, sondern in abnormalen Situationen im Zusammenhang mit Wasser und Schlamm. Öl scheint mit einem ähnlichen Prozess zusammenzuhängen.
Die Schluchten des Planeten scheinen nicht das Ergebnis eines langsamen, allmählichen Erosionsprozesses gewesen zu sein. Berge (mit Schichten) erscheinen durch einen Kompressionsprozess vor der Verfestigung gefaltet. Alle diese geologischen Aspekte unseres Planeten stehen in direktem Zusammenhang mit Wasser.
Boreale Abyss, Nordpolarregion
des Mars, zeigt Schichten und ErosionFoto: NASA/JPL-Caitech/
Universität von Arizona. Mars Reconnaissance Orbter, MRO
212 T U D 0 C O M E Ç O U
Zusammenfügen der Puzzleteile Um die Geschichte unseres Planeten zu verstehen, ist daher eine Untersuchung erforderlich
Die „Spuren“, die die hydrodynamischen Prozesse der Vergangenheit hinterlassen haben, müssen entwickelt werden. Dazu listen wir nur einige aktuelle geologische Phänomene auf, die eine Herausforderung für die Wissenschaft darstellen.
• 1. Schluchten• 2. Mittelozeanische Rücken• 3. Meeresplattformen und Kontinentalhänge• 4. Vulkane und vulkanische Lava• 5. Grundwasser• 6. Magnetische Variationen auf dem Meeresboden• 7. Hauptgebirgsketten• 8. Anpassung der Kontinente• 9. Öl und Kohle• 10. Fossilienfriedhöfe
Der Ursprung jedes dieser Phänomene bleibt weitgehend umstritten. Obwohl es viele Erklärungen gibt, vor allem aktuelle, sind sie nicht ganz konsistent und widersprechen in manchen Fällen sogar wissenschaftlichen Gesetzen. Viele gelten innerhalb des Vorschlags immer noch als Rätsel.
Daher würde ein geeignetes wissenschaftliches Modell versuchen, eine Ursache (oder Ursachen) für das Auftreten dieser Phänomene zuzuordnen und die Beziehung (falls vorhanden) zwischen der größten Anzahl von ihnen zu erklären. Das werden wir hier tun.
A 0 R I G F M D O C A T A S 1 Hú 213
Wonach suchen wir? Um ein solches Modell zu entwickeln, müssen wir die Phänomene kennen und
wie sie hergestellt wurden. Einige der auf der gegenüberliegenden Seite aufgeführten Themen wurden bereits in diesem Buch behandelt.
Schluchten Der Erosionsprozess von Schluchten erfolgt durch Wasser. Aber wie viel Wasser und warum
wie viel Zeit? Mehrere bekannte Schluchten entstanden durch den schnellen Fluss einer großen Wassermenge, die in einem See gestaut war, und zwar durch einen Prozess des Bruchs einer seiner Wände. Ein Beispiel ist der Marble Canyon in den Vereinigten Staaten.14
Auf dem Grund der Ozeane gibt es Hunderte von Schluchten, die sowohl in der Breite als auch in der Tiefe die Ausmaße der großen bekannten Schluchten, wie etwa des Grand Canyon in den Vereinigten Staaten, übertreffen. Die Schlucht, die eine Verlängerung des Kongoflusses darstellt, ist 800 km lang und etwa 1.200 m tief. Der größte ist der Zhemchug Canyon im Beringmeer.
Die in diesen Schluchten gemessenen Geschwindigkeiten der Meeresströmungen liegen jedoch in der Größenordnung von 1 km/h.15 So geringe Geschwindigkeiten bieten keine plausible Erklärung für die Bildung von Unterwasserschluchten innerhalb dieser Schluchten
14 RB.Scarborough, CenozoicErosionandSedimentotioninArizona, Anzona Bureau ofGeoiogy and Mineral Technology, 16. November 1984.
15 G.H. Keller und F.P. Shepard, Strömungen und Sedimentprozesse in U-Boot-Schluchten vor dem Nordosten der Vereinigten Staaten, von D.J. Stanley und G. Kelling (Herausgeber), Sedimentation in U-Boot-Schluchten, Fächern und Gräben. Dowden, Hutchinson und Ross, Pennsylvania, p. 395.
214
von einer uniformitären Bezugsebene über lange Zeiträume. Eine schnelle Formation scheint die logische Erklärung zu sein.
Kontinentalschelfregionen sind durch die Farbe Cyan gekennzeichnet. Der Atlantische Mittelozeanische Rücken ist in seiner gesamten Ausdehnung zu sehen.
Mittelozeanischer RückenDie von der Universität gezeigte Bildung des Mittelozeanischen Rückens
formitariana geht davon aus, dass sich tektonische Platten auseinanderbewegen, wodurch darunter befindliches Material aufsteigt und die Meeresoberfläche erreicht. Nach der Theorie der Plattentektonik sollte die Bewegung immer parallel zu den sogenannten Bruchzonen erfolgen. Dieser Mechanismus ist jedoch aufgrund der vielen Regionen beeinträchtigt, in denen der Rücken nicht parallel erscheint16 und in einigen Fällen überlappt.17
Sein Ursprung scheint nicht mit einem Mechanismus der langsamen und allmählichen Entfernung verbunden zu sein, wie die Theorie der Plattentektonik nahelegt.
Ozeanische Plattformen und Kontinentalhang Ein interessanter Aspekt auf allen Kontinenten ist der sogenannte Pla
ozeanische Form, die an den Stränden beginnt und sanft bis zu einer Tiefe von 200 Metern abfällt, wo der Kontinentalhang mit seinem sehr steilen Abhang beginnt. Diese Region ist von Sedimenten des Festlandes bedeckt, wobei die von Flüssen transportierte Menge im Vergleich zu der dort vorhandenen Menge unbedeutend ist. Naturforscher glauben, dass diese Sedimente während der sogenannten „letzten Eiszeit“ abgelagert wurden, als die Ozeane ihrer Meinung nach 100 bis 120 Meter flacher waren als heute.18 Die heute gemessene Ansammlung würde jeweils 30 cm entsprechen 1.000 Jahre19, wenn der Prozess konstant geblieben ist.
Wie bereits gesehen, ist die Annahme von Konstanz in den Bedingungen und der Dauerhaftigkeit von Prozessen ein vermeidbarer Fehler.
Die in diesen Regionen gefundenen Sedimentablagerungen ähneln eher dem, was passieren würde, wenn es zu einem plötzlichen Kontinentalanstieg käme, der dazu führen würde, dass das im geografischen Relief zurückgehaltene Wasser in Richtung der Ozeane fließt. Eine verstärkte Erosion würde durch den Beginn der Strömung in den Regionen entstehen, in denen sich heute die Kontinentalschelfs befinden, und das Ende der Strömung würde die Sedimente dort ablagern.
16 W.J. Morgan, Rises, Trenches, Great Faults, and CrustalB, Journal of Geophysical Research, Bd. 73, Nr. 6,15 vom März 1968.
17 R. Monastersky, Mid-Atlantic Ridge Survey Hits Volltreffer, Science News, Bd. 135, 13. Mai 1989, S. 295.
18 P. R. Pinet, Paul R., Invitation to Oceanography, St. Paul, MN, West Publishing Co., 1996, p. 84-85,19 G.M. Gross, Oceanography: A View of the Earth, Englewood Cliffs, Prentice-Ha 11, inc., 1972, p. 127.
215
Vulkane und vulkanische LavaDer Ursprung von Vulkanen wird den sogenannten Magmakammern zugeschrieben,
liegt etwa 90 km tief. Es ist wichtig zu beachten, dass in einer Tiefe von 10 km der Druck so groß ist, dass jede Spalte durch das Gewicht der darüber liegenden Gesteine hermetisch verschlossen würde. Selbst wenn sich ein kleiner Riss bilden würde, müsste das Magma durch kühleres Gestein wandern, wodurch es erstarren und eine Art Pfropfen bilden würde.
Eine weitere wichtige Tatsache ist, dass Wärme diffundiert. Das heißt, es hat eine natürliche Tendenz, sich auszubreiten. Der Nachweis der Existenz und Dauerhaftigkeit einer Magmakammer muss noch erfolgen.
Dennoch stellt die sogenannte Geothermie einen interessanten Aspekt im Hinblick auf das Alter des Planeten Erde dar. Einige glauben, dass der Ursprung dieser Hitze in der Spekulation liegt, dass die frühe Erde eine Kugel aus geschmolzenem Gestein war. Mit der Zeit kühlte es auf die aktuellen Temperaturen ab. Daher hätte die Abkühlung des Planeten extrem lange gedauert.
Es ist wichtig zu beachten, dass die Temperatur mit der Tiefe zunimmt und zwischen 10 und 60 °C pro Kilometer schwankt. Zwei sehr tiefe Bohrungen (siehe Unterirdische Gewässer) fanden Gestein mit viel höheren Temperaturen als erwartet. Wenn sich die Erde über Milliarden von Jahren abgekühlt hat, da Wärme normalerweise nach außen diffundiert, sollte es einen gleichmäßigen Temperaturgradienten über die Erdkruste geben, mit niedrigeren Werten als den gefundenen.
GrundwasserWasser befindet sich unter der Erde im Grundwasser der Erde und im
Grundwasserleiter. Erstere sind einige Meter tief; die Grundwasserleiter, wie der Guarani-Grundwasserleiter, sind 1.800 m tief.
Die beiden tiefsten künstlichen Brunnen, einer auf der Kola-Halbinsel in Russland und der andere im nördlichen Teil Bayerns, Deutschland20, brachten überraschende Ergebnisse. Die Tiefe des ersten betrug 12 km und des zweiten 9 km.
Keine der beiden Bohrungen erreichte die Grenzzone zwischen Granit und Basalt. In dem in Russland gebohrten Brunnen wurde jedoch ein Wasserfluss festgestellt
20 RAKerr, German Super-Deep Hole Hits Bottom, Science,Vol. 266,28 Outubro 1994, S. 545. Siehe auch „Looking Deeply into the Earth's Crust in Europe“, Science, Bd. 261, 16. Juli 1993, S. 295-297 e Continental Drilling Heading Deeper, Science, Bd. 224, 29. Juni 1984, S. 1418.
Guarani-Aquifer in Südamerika
216 r ç o
heißes, mineralisiertes (einschließlich Salzwasser) mit zerkleinertem Granit.21 Im deutschen Brunnen wurde Wasser in Rissen gefunden, dessen Salzgehalt doppelt so hoch war wie der von Meerwasser.
Die Existenz von Wasser in einer solchen Tiefe ist ein Rätsel. Die heute bekannten natürlichen Prozesse erklären nicht, wie das Wasser eine solche Tiefe erreichen konnte.
Magnetische Variationen im Meeresboden Das Erdmagnetfeld hinterlässt während des Pro seine Spuren
Prozess der Bildung einiger Gesteine, während sie abkühlen. Diese Drucke helfen bei der Erforschung des Erdmagnetfelds in der Vergangenheit.
Anomalien werden häufig in Gesteinen gefunden. Einige dieser Anomalien wurden jedoch als Umkehrungen der Polarität des Erdmagnetfelds interpretiert, während es sich in Wirklichkeit lediglich um Schwankungen der Stärke des Magnetfelds handelte. Ein in einem Medium im Erdinneren zirkulierender Strom erzeugt ein Magnetfeld. Störungen in diesem Medium würden Schwankungen im Strom erzeugen, die wiederum Schwankungen im Erdmagnetfeld hervorrufen würden (siehe „Das Erdmagnetfeld“, Kapitel 6, Seiten 184-186).
Eine massive Bewegung tektonischer Platten würde an bestimmten Stellen im Erdmantel Druck erzeugen, der wiederum die Eigenschaften des Mediums verändern würde, durch das der Strom zirkuliert, der das Magnetfeld erzeugt. Solche Schwankungen könnten abhängig von der Intensität der Bewegung und der Störung des Mediums, durch das der elektrische Strom zirkuliert, lokale Effekte der Stromumkehr und Schwankungen seiner Intensität hervorrufen. Diese Schwankungen würden sich in der Bildung der Gesteine niederschlagen, die Teil des Ereignisses wären, was keineswegs einen langsamen, sondern einen abrupten und katastrophalen Prozess beschreiben würde.
HauptgebirgskettenDie Hauptgebirgsketten auf dem Planeten haben zwei
Unterscheidungsmerkmale. Zunächst scheinen sie fast parallel zum mittelozeanischen Rücken ausgerichtet zu sein (siehe Abbildung auf der gegenüberliegenden Seite). Zweitens wirken sie eher horizontal zusammendrückend als anhebend (siehe Kapitel 5, Seite 145). Dies kann nicht einfach durch die Bewegung zweier sich überlappender tektonischer Platten geschehen (Abb. 1). Damit sich die Gebirgsketten bilden, müsste die obere Platte im Verhältnis zur unteren geschmiert werden (Abb. 2); andernfalls würde die auf ihn einwirkende Kraft zerbröckeln (Abb. 3). Siehe Anhang Nr.
21 J.A. Kozlovsky, Kola Super-Deep: Zwischenergebnisse und Aussichten, Episoden, Bd. 1982, Nr. 4, S. 9-11.
A 0 I'-: G L te 3 O C A T A S T R 0 F I S M O 217
■ ■ Gebirgskette
Mittelozeanischer Rücken
Kontinentalverschiebung
Auch eine kleine Geschwindigkeit der Kontinentalplatten, wie sie heute gemessen wird, hätte nicht genug Energie, um große Kontinentalverformungen hervorzurufen.
Die Verschiebung eines Kontinents mit einer Geschwindigkeit, die viel höher ist als die aktuellen Indizes, hätte genug Energie, um an einem Ende eine große Überlappung zu erzeugen (die eine Hauptgebirgskette bildet, wie die Andenkordilleren), und eine zentrale gleichmäßige Anhebung (wie die Hochebenen und Ebenen von Südamerika) und ein kleiner sekundärer Eingriff (wie Serra do Mar) in kurzer Zeit.
Anpassung an die KontinenteDie Theorie eines Superkontinents in der Vergangenheit des Planeten Erde
wird von Kreationisten und Naturforschern akzeptiert. Es besteht Uneinigkeit über den Prozess und den Zeitpunkt der Kontinentaltrennung. Eine langsame und allmähliche Bewegung, wie sie heute beobachtet wird, würde weder die Gebirgszüge noch den Kontinentalhang noch die Menge an Sedimenten in den Küstenregionen der Kontinente hervorbringen.
Öl und KohleSowohl Öl als auch Kohle, die unter der Erdoberfläche vorkommen
sind biologischen Ursprungs. Ein interessantes Beispiel für Kohle findet sich in der Antarktis. Dort wurden in Hülle und Fülle versteinerte Bäume und Holzkohle gefunden.22,23 Konnte es möglich sein, dass an einem solch unwirtlichen Ort Vegetation wuchs? Nach der Theorie der Plattentektonik lag die Antarktis nie in einer Region, die ein warmes Klima ermöglichen würde.24
22 S. VVeisburd, A Forest Grows in Antartica, Science News, Bd. 129,8. März 1986, S. 148,23 R.S. Lewis, A Cntinent for Science: The Antarctic Adventure, Viking Press, N.Y., 1965, S. 130,24 C.K. Seyfert und L.A. Sirkin, Earth HistoryandPlate Tectonics, Harper & Row, N.Y., 1979, 2a Ausgabe,
P. 312.
218
Plattform zur Unterwasser-Ölförderung.
Es wäre möglich, dass viele dieser heute versteinerten Baumstämme dort geschwommen wären. Offensichtlich wäre dies nicht Teil einer uniformitären Veranstaltung. Erdöl selbst, von dem angenommen wird, dass es biologischen Ursprungs ist, macht deutlich, dass in der Vergangenheit etwas passiert ist, das einen großen Teil der Biomasse des Planeten begraben hat. Viele Geologen glauben, dass Erdöl das Ergebnis der Komprimierung und Erhitzung von Material aus dieser vergrabenen Biomasse ist, die über lange Zeiträume unter nicht oxidierenden Bedingungen konserviert wurde. Einige Wissenschaftler (wie der Astronom Thomas Gold) haben einen anorganischen Ursprung für Erdöl vorgeschlagen.
Erdöl wird normalerweise mit Schlamm und Wasser vermischt gefunden. Druck und Temperatur sind die bestimmenden Faktoren für die Ölreifungszeit. Das meiste gefundene Öl weist Temperaturen zwischen 60 und 120 °C auf. Der Druck hängt vom Gewicht der Sedimente ab, die sich auf der vergrabenen Biomasse ablagern. Wenn es in kurzer Zeit zu einer großen Ansammlung von Sedimenten und einer angemessenen Temperatur käme, wäre die Zeit für die Ölbildung sehr kurz.
Auch dies würde eine Wasserkatastrophe implizieren und nicht einen sich langsam ausbreitenden tektonischen Uniformitarismus. Diese Möglichkeit ist jedoch vollkommen wissenschaftlich.
Fossile Friedhöfe Wie wir in Kapitel 5 gesehen haben, zeigen fossile Friedhöfe eine
massenhafte und gleichzeitige Zerstörung vieler Lebensformen. Auch hier ist das Element Wasser der Schlüssel zum Verständnis der Entstehung dieser Friedhöfe. Wie konnten Tiere verschiedener Arten von einer großen Menge Wasser und Schlamm weggeschwemmt werden?
Mo n t a n d o o Qu e b r a -C a b e ç a
Alle diese genannten Aspekte können durch eine wissenschaftliche Theorie in Beziehung gesetzt werden.
Der Planet Erde verfügte in der Vergangenheit wahrscheinlich über ein System unterirdischer Mega-Reservoirs, die wahrscheinlich miteinander verbunden waren. Heute existieren nur noch wenige Taschen. Dies würde das Wasser erklären, das in Tiefbrunnen gefunden wurde, die in Deutschland und Russland gebohrt wurden.
Dieses in diesen Megareservoirs enthaltene Wasser würde als Schmiermittel für eine tektonische Bewegung mit geringer Reibung zwischen der oberen Gesteinsschicht (oben im Reservoir) und der unteren Schicht (am Boden des Reservoirs) wirken. Ohne die Reibung zwischen den Gesteinen könnte sich die obere Platte mit Geschwindigkeiten bewegen, die weit über den heute gemessenen Verschiebungen liegen.
der Kontinente. Dies würde erklären, wie sich durch einen horizontalen Kompressionsprozess Gebirgszüge gebildet hätten.
Der Bruch dieser Megareservoirs muss während der Pangäa-Zeit stattgefunden haben. Das Aufbrechen würde zu einem praktisch ununterbrochenen Riss in der Erdkruste führen. Damit das Wasser durch den Riss an die Oberfläche gelangt, entsteht ein seitlicher Druck auf die gegenüberliegenden Wände, der eine horizontale Bewegung der beiden Teile vom Riss weg bewirkt. Es würde zu einer starken Erosion der Seitenwände des Risses und der Oberseite des unterirdischen Reservoirs kommen. Dies würde erklären, warum die fast vertikale Form des Kontinentalhangs und der sanfte Abfall der ozeanischen Schelfe sowie die Anpassung der Kontinentalkontur vorliegen
Als sich die Kontinentalplatten voneinander entfernten, entstand der Boden des neuen Ozeans. Ohne das Gewicht der oberen Platte würde der bestehende Druck auf den Boden durch eine Anhebung des Bodens verringert, was der Bildung einer Bergkette am Grund des neuen Ozeans ähneln würde. Dies würde das Aussehen des mittelozeanischen Rückens und die damit verbundene vulkanische Aktivität erklären.
Auf der Oberfläche der Kontinentalplatte würde die große Menge an Wasser, die aufgrund der erzeugten Erosion mit Sedimenten vermischt wird, schnell einen großen Teil der Biomasse des Planeten inmitten von viel Schlamm begraben. Mit der Stabilisierung des Systems im Laufe der Zeit würden Gezeitenbewegungen (Druck und Dekompression) dazu führen, dass Sedimente, Pflanzen und Tiere nach Dichte kategorisiert werden. Dies würde den Ursprung der Stratigraphie, der geologischen Säule, der Fossilien und Polystrata-Fossilien, der Fossilienfriedhöfe und der großen Menge an vorhandenem Öl erklären.
Ein Großteil des über die Kontinentalplatten geschleuderten Wassers würde in Superseen aufgestaut. Ein anderer Teil würde in die ozeanische Region zurückfließen und eine große Menge an Sedimenten und Organismen mit sich bringen. Superlakes wären aufgrund der Platteninstabilität nicht dauerhaft. Brüche in einer seiner Wände würden zu einem schnellen Abfluss einer großen Wassermenge führen. Dies würde die schnelle Bildung großer Land- und Unterwasserschluchten sowie die Ablagerungen versteinerter Bäume und Tiere in vielen Regionen des Planeten erklären.
Eine Änderung der Menge an Biomasse auf dem Planeten würde dazu führen, dass Kohlenstoff schneller von einem Speicher zum anderen gelangt, wodurch sich das 14C/12C-Verhältnis in der Atmosphäre ändert. Dies würde erklären, warum die Kohlenstoff-14-Datierungsmethode, die eine genaue und annahmefreie Datierung ermöglicht, aktuelle Altersangaben für Gesteine und Fossilien liefert.
Mit abnehmender Grundwasserschicht würde der Kontakt zwischen der oberen Platte (Granit) und der unteren Platte (Basalt) zu einer abrupten Verzögerung führen und kinetische Energie in Verformung und Wärme umwandeln. Dieses Phänomen würde zu einer horizontalen Kompression der oberen Platte führen und ihr altes Relief in ein neues verwandeln. Scharfe Biegungen aufgrund der horizontalen Kompression würden am Ende vor der Richtung der Verschiebungsbewegung auftreten, wo die Verzögerung zuerst auftreten und am größten wäre. Im zentralen Bereich wäre die Kompression geringer, was zu einer Erhebung mit wenigen scharfen Falten führen würde. Am anderen Ende der Platte würde es eine Reihe von Falten bilden, die nicht so ausgeprägt sind wie die erste, aber ausgeprägter als die in der Mitte. Dieses Ereignis lässt sich anhand des Aufpralls eines Zuges auf einen Körper mit viel größerer Masse veranschaulichen. Die Lokomotive und die daneben stehenden Waggons würden kollidieren. Waggons in der Mitte des Zuges würden nach rechts fallen, andere nach links. Durch das Aufprallen des Zuges würden sich die Waggons am Ende überlappen. Dies würde die Entstehung der Hauptgebirgsketten, der Hochebenen und Ebenen sowie der Nebengebirgsketten auf den Kontinenten und ihre parallele Lage zum mittelozeanischen Rücken in Abhängigkeit von der Verschiebungsrichtung erklären.
Ein abruptes Bremsen würde zu Störungen im nichtfesten Teil des Planeten führen, wodurch der dort hindurchfließende Strom zu Schwingungen des Magnetfelds führen würde. Dies würde die Schwankungen der Intensität des Erdmagnetfelds erklären, die in Gesteinen am Grund der Ozeane aufgezeichnet werden.
Diese Theorie wurde vor fast dreißig Jahren vorgeschlagen. Sein Name ist Hydroplattentheorie. Sein Autor ist Dr. Walt Brown, der am Massachusetts Institute of Technology (M.I.T.) promovierte.
Der Grund dafür, dass diese Theorie nicht allgemein akzeptiert oder zumindest nicht mit der wissenschaftlichen Genauigkeit bewertet wird, die ihr gebührt, ist immer noch ein Beweis für die aktuelle, höchst anmaßende wissenschaftliche Position, in der Theorien, die möglicherweise religiöse Implikationen haben, als wertlos abgetan werden. keinen Wert oder waren wissenschaftlich falsch.
Doch je mehr neue Entdeckungen das menschliche Wissen erhellen, desto offensichtlicher wird, dass die Geschichte dieses Planeten von einer oder mehreren Katastrophen geprägt war, was den beiden heute noch verteidigten Hauptvorschlägen des Naturalismus direkt widerspricht.
Unser Planet ist zerbrechlich
In den letzten 100 Jahren wissenschaftlicher Forschung haben wir etwas entdeckt
D 0 C A I A S T R O F I S M 221
Aceh – Indonesien
Berto, dass wir in einem sehr ausgewogenen System leben, dessen Zerbrechlichkeit der Tsunami 2004 verursachte
und Präzision werden jetzt entdeckt. (Fotos NASAaténteikonos) Wir haben herausgefunden, dass der Planet viel fragiler ist, als wir dachten.
Wir lernen, dass die Natur genau darauf ausgelegt ist, innerhalb bestimmter spezifischer Grenzen zu funktionieren. Wir stehen jetzt vor der Energiekrise, der globalen Erwärmung, der Gefahr der Selbstvernichtung und möglichen Sternkatastrophen. Was zu tun ist?
Zurück zu den Originalen
Das Wachstum des menschlichen Wissens in dieser Zeit hat uns gezeigt, dass das Universum und das Leben viel komplexer sind, als wir es uns vorgestellt haben. Neue Technologien haben uns Werkzeuge an die Hand gegeben, mit denen wir diese großen Geheimnisse, die uns umgeben, auf einem noch nie dagewesenen Forschungsniveau verstehen können. Neue Techniken haben Türen geöffnet, von denen wir bis vor Kurzem dachten, sie könnten nicht geöffnet werden.
Aber trotz alledem werden weiterhin dieselben Interpretationsinstrumente (von denen viele unzureichend sind) verwendet, um den wahren Ursprung und die wahre Entwicklung der beiden größten Geheimnisse zu entdecken, die uns umgeben: das Universum und das Leben.
Viele sagen, wenn unsere Vorfahren das Wissen gehabt hätten, das wir über das Universum und das Leben haben, wäre der Kreationismus nie zum Tragen gekommen.
existieren. Aus dem, was in diesem Buch gezeigt wurde, geht hervor, dass das Gegenteil der Fall ist.
Obwohl wir einen echten Wissensfortschritt erleben, gibt es Wissen, das nicht überlagert ist. Die bloße Möglichkeit des Fortschritts erfordert, dass es ein unveränderliches Element gibt. Neue Flaschen für neue Weine, aber keine neuen Mägen und Kehlen. Dann wäre Wein für uns kein Wein mehr.
Lassen wir uns nicht täuschen: Keine noch so große Komplexität, die wir zu unserem Bild vom Universum und vom Leben hinzufügen können, könnte uns vor den Beweisen dafür schützen
ein intelligenter und zielgerichteter Ursprung. Bisher hat der Mensch nichts entdeckt, was es dicht genug bedecken könnte, so dass das intensive Licht, das ein Universum und Leben offenbart, das mit Intelligenz und Zielstrebigkeit erschaffen wurde, gedämpft wird.
Beantwortung der letzten auf der vorherigen Seite gestellten Frage.
Q u e Fa z e r ?
Ohne den Zweck des Universums und des Lebens zu entdecken, werden wir ihren Wert nie verstehen; Und ohne ihren Wert zu verstehen, werden wir niemals in der Lage sein, sie mit der gebotenen Sorgfalt zu pflegen.
Wenn wir uns in diese Richtung bewegen, werden wir zweifellos in der Lage sein, den Sinn unserer Existenz klar zu verstehen und die größte Frage zu beantworten, die wir alle haben ...
Aber ich überlasse es Ihnen, diese Frage zu stellen ... und die Antwort zu finden.
A O •• I M ) o C a t a s t r o f i s y o 223
Tethys (Saturn) Rhea (Saturn) Mimas (Saturn)
Kallisto (Jupiter) Europa (Jupiter) Lua (Erde)
Krater auf dem Mond Kallisto (Jupiter) Enceladus (Saturn) Krater auf dem Mond (Erde)
Es wurden Monde gefunden, die die Planeten des Sonnensystems umkreisen. NASA-Fotos (Voyoger 1, Voyager2, Cassini)
A *
C O N C L U S Õ E S
Ich Bus c a
d a V e r d a d e
„T o d o s o s i i o m e n s s e en g a n a m .
ABER NUR GROßE MÄNNER ERKENNEN, WARUM SIE Eng A N A R A M SIND.
FONTENELLE
„DIE WAHRHEIT IST IMMER SELTSAM, SELTSAM ALS Fiktion.“
L o r d B y r o n
226 f- L
A O r i g e m D as Te o r i a s :
H o m o T h o C o m e ç o u ?
• Wissenschaftliche Theorien und Gesetze müssen Hand in Hand gehen.
• Die Schöpfungstheorie betont Alltagserfahrung und gesunden Menschenverstand: Die Schokoladenkuchen-Theorie
• Naturalismus und Kreationismus sind zwei alte Weltanschauungen, die seit über 2.500 Jahren vertreten werden.
• Sie sind auch zwei Modelle zum Verständnis und zur Rekonstruktion der Geschichte.
• Die Vorschläge der kreationistischen Theorie unterliegen -i wissenschaftlichen Beobachtungen -i wissenschaftlichen Tests -i der wissenschaftlichen Logik -i den wissenschaftlichen Gesetzen
• Die Relevanz der Komplexität in der Herkunftsforschung muss eine objektive und keine subjektive Rolle spielen. Komplexität und ihre Entstehung können analysiert werden.
C A P ] T U L O 1
• Rationale Argumente beinhalten auch die Existenz Gottes.
C O N C u S O S 227
A O r i g e m D a In f o r m a ç ã o :
D e s i g n INT e l g e n t e
• Der Intelligent Design-Vorschlag ist älter als Darwins Schriften und stellt daher keinen Versuch dar, solche Schriften zu widerlegen.
• Charles Darwin selbst stellt in seinem Buch „The Origin of Species“ Folgendes in Frage: „Wir wären dann überrascht, wenn die Produkte der Natur einen viel ‚wahreren‘ Charakter hätten als die Produkte des Menschen; Wenn sie den komplexesten Lebensbedingungen unendlich besser angepasst wären und deutlich die Merkmale weit überlegener Kunst und Handwerkskunst tragen würden? „ 1
• Komplexität existiert und ist real. Das Design existiert und ist echt. Naturforscher glauben, dass er unbeabsichtigt war.
• Woher stammen die Informationen, die wir im Universum und im Leben finden?
• Das komplexe DNA-Molekül produziert keine Informationen und ist auch keine Information an sich. Es enthält lediglich die Lebenscodeinformationen in seiner Struktur. Woher stammen die in der DNA gespeicherten Informationen? Offensichtlich kann es nicht an der DNA liegen.
• Das Universum und alles darin (Materie und Energie) unterliegen Naturgesetzen. Materie und Energie (was alles ist, was wir Natur nennen) erzeugen jedoch keine solchen Gesetze, sie gehorchen diesen Gesetzen lediglich. Was ist der Ursprung der Gesetze, die die Natur beherrschen? Natürlich kann es nicht die Natur selbst sein.
C A P I T U I. O 2
1 Charles Darwin, On the Origin of Species by Means of Natural Selection, veröffentlicht von John Murray, London, 1859, Erstausgabe, S. 83
228
Ein O r i g e m des Universums:
Astronomie und Kosmologie
• Was wir mit bloßem Auge sehen können, ist ein unbedeutender Teil des Universums, da es am Himmel mehr Sterne gibt als alle Sandkörner an allen Stränden und Wüsten unseres Planeten zusammen.
® Das Universum ist eine Ansammlung von Welten. Seine Größe beträgt nach aktuellen Berechnungen einen Radius von mehr als 10 Milliarden Lichtjahren, also einen Radius von 100.000.000.000.000.000.000.000 km!
® Die Wissenschaft hat beim Verständnis des Universums einen langen Weg zurückgelegt: von einem geozentrischen System und einem statischen Universum der antiken Kosmologie zu einem heliozentrischen System und einem dynamischen Universum der aktuellen Kosmologie.
• Der naturalistische Ursprung des Universums lässt darauf schließen, dass es durch ein übernatürliches Ereignis entstand, das als Urknall bekannt ist. Das Ereignis ist übernatürlich, weil es nicht durch bekannte wissenschaftliche Gesetze beschrieben werden kann.
• Hintergrundstrahlung entspricht einer Temperatur von 2,7 Kelvin, etwa minus 270 °C. Naturforscher sagen, dass das Universum vor 14 Milliarden Jahren bei einer extrem hohen Temperatur entstanden sein könnte und sich dann auf die heutige Temperatur von 2,7 Kelvin abgekühlt hat. Kreationisten sagen, dass das Universum zum Zeitpunkt der Schöpfung völlig kalt begann und alle Himmelskörper (Galaxien und ihre Sterne) vollkommen funktionsfähig waren; Die Zeit, um es auf 2,7 Kelvin zu erhitzen, würde Tausende von Jahren dauern.
• Galaxien mit unterschiedlichen Entfernungen scheinen gleich alt zu sein.
• Der Planet Erde ist vor allem ein privilegierter Planet, der einen besonderen Platz im Universum einnimmt.
C A Pí T U L C) 3
229
A O r i g e m D a V i d a :
B i o l o g i a e G e n é t i c a
• Der Ursprung des Lebens bleibt für die naturalistische Theorie immer noch ein Rätsel.
• Die von Oparin und Miller vorgestellte angebliche biochemische Evolution hat sich bereits als nicht möglich erwiesen.
• Die Ontogenese war nie die kurze, schnelle Wiederholung der Phylogenie.
• Biodiversität ist real und wurde umfassend untersucht. Mutationen liefern keine plausiblen Antworten auf einen vermuteten Evolutionsmechanismus.
• Die im DNA-Molekül enthaltenen Informationen können nicht das Ergebnis zufälliger oder zufälliger Prozesse gewesen sein.
• Der kreationistische Vorschlag ist keine religiöse Skizze. Viele Bereiche der Wissenschaft weisen auf eine intelligente Quelle als Ursprung des Lebens hin. Die Chancen, dass Leben durch Zufall entsteht und sich durch zufällige Prozesse entwickelt, sind so gering, dass es eines Glaubens bedarf, der einem rationalen religiösen Vorschlag überlegen ist.
• Das Leben basiert auf einer kodierten Struktursprache, die perfekt mit den Mustern eines intelligenten und zielgerichteten Ursprungs kompatibel ist.
• Die von den Kreationisten vorgeschlagenen begrenzten Anpassungsfähigkeiten und genetischen Reserven werden täglich bei allen Organismen durch die Mechanismen der Artbildung und Spezialisierung beobachtet.
KAPITEL 4
• Dem Anschein nach hat das Leben nur den Anschein, als hätte es sich entwickelt.
A O r i g e m D o s F o s s e i s :
Pal e on t o l o g i a e G e o l o g i a
• Die Vielfalt der Organismen im Fossilienbestand ist immens.
• Es gibt verschiedene Prozesse, durch die Organismen versteinern.
• Die Entstehung eines Fossils ist vor allem ein nicht-traditionelles Ereignis. Die meisten Organismen werden nicht zu Fossilien, da sie auf natürliche Weise sterben und zerfallen.
• Fossilien werden innerhalb einer Evolutionslinie anhand ihrer Lage in Schichten katalogisiert. Daher besteht ein großer Bedarf zu verstehen, wie diese Schichten entstehen.
• Die Schichten der geologischen Säule wurden durch hydrodynamische Prozesse schnell gebildet. Fossile Polystrata und Falten, die in Bergen gefunden wurden, wo Schichten sichtbar sind, liefern echte Beweise. Labortests liefern empirische Belege für diese Tatsache.
• Der Fossilienbestand zeigt keine Sequenz, die direkt auf die Entwicklung des Lebens schließen lassen könnte, hauptsächlich aufgrund der großen Anzahl von Lücken. Die vorgeschlagenen Zusammenhänge für die Existenz einer virtuellen Sequenz sind theoretisch und nicht empirisch.
• Der Fossilienbestand zeigt, dass Komplexität schon immer Teil des Lebens auf dem Planeten Erde war. Es war nicht etwas, das im Laufe der Geschichte erworben wurde.
• Die angebliche Chronologie, die die geologische Kolumne darstellt, ist von ihrer Basis her falsch. Es fehlen Perioden, Fossilien erscheinen in der falschen Reihenfolge, es gibt immer noch eine große Anzahl versteinerter Organismenarten auf dem Planeten.
231
KAPITEL 6
A O r i g e m d o s B i l h õ e s d e An o s :
Mé t o d o s d e D a t a ç ã o
• Keinem Stein oder Fossil liegt eine Geburtsurkunde bei. Daher hängt die Einschätzung Ihres Alters von Datierungsmethoden ab.
• Es gibt inkrementelle und radioaktive Datierungsmethoden.
• Inkrementelle Methoden werden im Allgemeinen für „aktuelle“ Datierungen verwendet, während radiometrische Methoden für „alte“ Datierungen verwendet werden.
• Radiometrische Datierungsmethoden basieren auf fragwürdigen Annahmen.
• Mit diesen Methoden angegebene Alterangaben sind falsch.
• Der beschleunigte Kernzerfall ist ein untersuchter Prozess, der die Mängel der herkömmlichen radiometrischen Datierung zeigt.
• Die radiometrische Datierungsmethode Kohlenstoff-14 bietet eine zuverlässige Methode zum Testen des Alters, das mit anderen Datierungsmethoden ermittelt wurde.
• Die von Naturforschern ständig präsentierten langen Zeitalter sind ein Mythos, der den strengen wissenschaftlichen Tests nicht standhält. Ohne Ad-hoc-Annahmen werden Tausende von Jahren gemessen, nicht Millionen oder Milliarden von Jahren.
• Mit diesem Mythos der langen Zeitalter hat die moderne Wissenschaft seit fast zwei Jahrhunderten zu leben gelernt. Die von ihm gezogenen Schlussfolgerungen sind eher dogmatisch als wissenschaftlich.
232
A O r i g e m d o C a t a s t r of f i s m o :
G e of í s i c a e H i d r o d i n â m i c a
® Die mit Katastrophen verbundene Terminologie ist sowohl bei Kreationisten als auch bei Naturforschern üblich.
• Katastrophen sind ein beobachtbares Phänomen, und ihre Ursachen und Auswirkungen können und sollten von der Wissenschaft untersucht werden.
® Einschläge von Himmelskörpern sind die Hauptursache für Katastrophen auf dem Planeten Erde. Diese Auswirkungen werden auch auf den anderen Planeten und Monden des Sonnensystems untersucht. Die Erde hat durch diese Einschläge viele riesige Spuren hinterlassen.
• Obwohl vulkanische Aktivitäten geographisch begrenzt sind, können die verursachten Auswirkungen globale Ausmaße annehmen, vor allem auf die Atmosphäre und das Klima des Planeten. Auf der Planetenoberfläche gibt es viel vulkanisches Material, dessen Abflussraten nicht mithalten können. Die Intensität der vulkanischen Aktivität in der Vergangenheit unterscheidet sich von der gegenwärtigen.
• Die aktuelle seismische Aktivität weist eine geringere Intensität auf als die Spuren der Vergangenheit.
• Die gefundenen Beweise zeigen, dass die atmosphärische Aktivität das Klima des Planeten und damit das Biosystem direkt beeinflusst.
• Die Anzeichen der durch Wasser verursachten Verwüstung auf dem Planeten Erde sind nicht zu leugnen. Die Beurteilung der Intensität und Dauer solcher Ereignisse wird von der Hydroplattentheorie vorgeschlagen.
• Die gegenwärtige naturalistische Wissenschaft verwirft den Katastrophismus und stützt sich auf den Satz „Die Gegenwart ist der Schlüssel zur Vergangenheit“, während sie ironischerweise versucht, „die Schlüssel der Vergangenheit“ zur Erklärung der Gegenwart zu verwenden.
KAPITEL 7
A P Ê N D í C E S
U m Po u c o d e
Gleichungen
... Bereiten Sie Ihre GOSTAS vor
„N Ã O SE P O D E E N S IN A R T U D O A AL G UÉ M ,
Ich kann Ihnen einfach dabei helfen, es selbst zu finden.“
G a l i l e u G a l i l e i
„D e v e m o s a p r e n d e r d u r a n t e to d a a v i d a
SEM IMAGING IN A R O U E A S A B E D O R IA VEM C O M A VEL L H IC E .
S Ê N E C A
Anhang A
Teilliste der Wissenschaftler mit einer kreationistischen Position.
Francis Bacon (1561-1626) wissenschaftliche Methode Galileo Galilei (1564-1642) Physik und Astronomie Johannes Kepler (1571-1630) Astronomie Athanasius Kircher (1602-1680) Erfinder Walter Charleton (1619-1707) Präsident des Royal College of Physicians Blaise Pascal (1623–1662) HydrostatikSir William Petty (1623–1687) Statistik und WirtschaftRobert Boyle (1627–1691) Chemie und GasdynamikJohn Ray (1627–1705) NaturgeschichteIsaac Barrow (1630–1677) MathematikNicolas Steno (1638–1686) StratigraphieThomas Burnet (1635-1715) GeologieIncrease Mather (1639-1723) AstronomieNehemiah Grew (1643-1712) Medizin und BotanikIsaac Newton (1642-1727) klassische Physik, DifferentialrechnungGottfried Wilhelm Leibniz (1646-1716) MathematikJohn Flamsteed (1646-1719) Gründer von Greenwich ObservatoriumWilliam Derham (1657-1735) ÖkologieCotton Mather (1663-1728) MedizinJohn Harris (1666-1719) MathematikJohn Woodward (1665-1728) PaläontologieWilliam Whiston (1667-1752) Physik, GeologieJohn Hutchinson (1674-1737) PaläontologieJohathan Edwards (1703) - 1758) Physik, AtmosphärenwissenschaftenLeonhard Euler (1707-1783) Mathematik, transzendente FunktionenCarolus Linnaeus (1707-1778) TaxonomieJean Deluc (1727-1817) GeologieRichard Kirwan (1733-1812) MineralogieWilliam Herschel (1738-1822) Galaktische Astronomie; Entdecker des UranusJames Parkinson (1755-1824) MedizinJohn Kidd, M.D. (1775-1851) synthetische Chemie William Kirby (1759-1850) Entomologie Jedidiah Morse (1761-1826) Geographie Benjamin Barton (1766-1815) Botanik und Zoologie John Dalton (1766-1844) Vater der modernen Atomtheorie
George Cuvier (1769-1832) Vergleichende Anatomie und PaläontologieCharles Bell (1774-1842) AnatomieHumphry Davy (1778-1829) ThermokinetikBenjamin Silliman (1779-1864) MineralogiePeter Mark Roget (1779-1869) Medizin und PhysiologieDavid Brewster (1781-1868)optische MineralogieW illiam Buckland (1784-1856) Geologie William Prout (1785-1850) Lebensmittelchemie Michael Faraday (1791-1867) Elektromagnetismus, Erfinder des Generators Samuel F. B. Morse (1791-1872) Erfinder des Telegraphen John Herschel (1792-1871) Astronomie Joseph Henry (1797-1878) Erfinder des Elektromotors und des GalvanometersRichard Owen (1804-1892) Zoologie und PaläontologieMatthew Maury (1806-1873) Ozeanographie und HydrodynamikLouis Agassiz (1807-1873) Glaziologie, Ichthyologie und PolygenieHenry Rogers (1808-1866) GeologieJames Glaisher (1809-1903) AtmosphärenwissenschaftenPhilip H. Gosse (1810-1888) Ornithologie und ZoologieSir Henry Rawlinson (1810-1895) ArchäologieJames Simpson (1811-1870) Gynäkologie und AnästhesiologieJames Dana (1813-1895) GeologieSir Joseph Henry Gilbert (1817-1901). ) Agrarchemiker James P. Joule (1818) -1889) Thermodynamik Anderson (1819-1874) Chemikercharles Piazzi Smyth (1819-1900) Astronomiegeorge Stokes (1819-1903) Fluidojohn William Dawson Mechaniker (1820-1899) Geologarudolph Virchow (1821-1902) Pathologie Mendel (1822-184) Geneticalouis Pasteur (1822-1895) Bakteriologie und Biochemie Henri Fabre (1823-1915) Entomologie lebender Insekten William Thompson, Lord Kelvin (1824-1907) absolute Temperatur William Huggins (1824-1910) astronomische SpektrometrieBernhard Riemann (1826–1866) nichteuklidische GeometrieJoseph Lister (1827–1912) antiseptische ChirurgieBalfour Stewart (1828–1887) ionosphärische ElektrizitätJames Clerk Maxwell (1831–1879) Elektrodynamik und ThermodynamikP. G. Tait (1831-1901) Vektoranalyse, John Bell Pettigrew (1834-1908) Anatomie und Physiologie, John Strutt, Lord Rayleigh (1842-1919), Modellanalyse
Sir William Abney (1843-1920) Astronomie Alexander MacAlister (1844-1919) Anatomie A. H. Sayce (1845-1933) ArchäologieJohn Ambrose Fleming (1849-1945) Elektronik (elektrisches Ventil)George Washington Carver (1864-1943) ErfinderL. Merson Davies (1890-1960) Geologie und PaläontologieDouglas Dewar (1875-1957) OrnithologieHoward A. Kelly (1858-1943) GynäkologiePaul Lemoine (1878-1940) GeologieFrank Lewis Marsh (1899-1992) BiologieErnest John Mann (1925-2005) Landwirtschaft, biologische KontrolleEdward H. Maunder (1851-1928) AstronomieWilliam Mitchell Ramsay (1851-1939) ArchäologieWilliam Ramsay (1852-1916) Isotope, TransmutationselementeCharles Stine (1882-1954) organische ChemieSir Cecil P.G. Wakeley (1892-1979) Medizin (Chirurgie) Wernher von Braun (1912-1977) Raumfahrttechnik und Antrieb Verna Wright (1928-1998) Rheumatologie
Zwei besondere Namen des Kreationismus des 20. Jahrhunderts
Pionier des modernen Kreationismus: Arthur E. Wilder-Smith (1915-1995) Inhaber von 3 Doktortiteln (PhDs)
Der Geologe des Institute for Creation Research (ICR) Henry M. Morris (1918-2006).
Eine aktuelle Liste mit den Namen vieler kreationistischer Forscher finden Sie unter www.icr.org
Anhang B
Die durch Zenos Paradoxon definierte Reihe ist:
S = 1 + 1 + X . + - L - + — 1 — + J L2 4 8 1 6 2 n_1 2 n
dessen allgemeine Form ist:
S = a + ar + ar2 + ar3 + ... + a rn.
Diese geometrische Reihe ist konvergent, wenn r < 0,1
In unserem Fall ist r < 0, weil r =
Betrachten wir Folgendes:
Sn = a + ar + ar2 + ar3 + ... + a rn~: e
r S = ar + ar2 + ar3 + ... + a rn_1 + arnn
Wenn wir die beiden Gleichungen subtrahieren, erhalten wir:
(1 - r) Sn = a - arn.c _ a arn n ( l - r ) ‘ ( l-r)*
Wir werden Grenzwerte verwenden, die gegen n ins Unendliche gehen:
^ rnn—>oo^n ~ ^ mn—>oo|^| _ " q _ r )J
Für r < 0arn _
’d - r) Deshalb,
t im n - zu o j r h ; = ° ’ P°r(íue r° °-
Sn a(1 - r )
i iIn unserem Fall ist das Ergebnis, da a = ^ und r = ^:
Anhang C
Wie kann man Informationen mathematisch messen? 1 Statistisch gesehen wäre die richtige Antwort.
Um Informationen zu messen, reicht es jedoch nicht aus, nur die Anzahl der ausgeschlossenen Möglichkeiten zu zählen, sondern diese Zahl dient als relevanter Bewerter der Informationen. Das Problem bei dieser Argumentation besteht darin, dass eine einfache Aufzählung der Ausschlussmöglichkeiten uns keine Informationen darüber geben würde, wie diese Möglichkeiten eine spezifische Individualität haben.
Wenn wir beispielsweise davon ausgehen, dass die Wahrscheinlichkeit, ein Symbol aus mehreren (d. h. den Buchstaben des Alphabets) auszuwählen, völlig unabhängig von den Symbolen ist (d. h. auf den Buchstaben „q“ würde nicht immer der Buchstabe „u“ folgen) und dass alle Symbole die gleiche Wahrscheinlichkeit haben, ausgewählt zu werden, also könnten wir die Wahrscheinlichkeit schreiben, dass eines der Symbole erscheint.
Diese Wahrscheinlichkeit des Auftretens eines Symbols x. würde gegeben werden von
pt = m
wobei N die Gesamtzahl der vorhandenen Symbole ist.
Laut Shannon müssten drei Bedingungen erfüllt sein:
lo Gibt es eine Anzahl n unabhängiger Nachrichten (Symbole oder Symbolfolgen), so ergibt sich der gesamte Informationsgehalt durch die Summe: l t ,= L + /„+... + / .r total 1 2 n
2 = Der Informationsgehalt einer Nachricht steigt mit zunehmendem Überraschungsmoment. Das Erscheinen des Buchstabens „x“ (geringe Wahrscheinlichkeit) in einem Satz hat einen größeren Überraschungseffekt als das Erscheinen des Buchstabens „a“ (hohe Wahrscheinlichkeit). Daher ist der Wert, der den x-Symbolinformationen zugewiesen wird. steigt mit abnehmender Wahrscheinlichkeit. Mathematisch kann dies als inverse Wahrscheinlichkeit geschrieben werden: / ~ l/p.
3. Im Fall der einfachsten Symmetrie, bei der nur zwei verschiedene Symbole (also „0“ und „1“) mit der gleichen Häufigkeit vorkommen (pf= 0,5 und p2- 0,5),
1 Diese Arbeit von Dr. Werner Gitt erscheint vollständig im Buch Am Anfang war Information, Christliche Literatur-Verbreitung e.V., 1997, S. 94-96 und Anhang Al.
241
Der Informationsgehalt / jedes Symbols würde genau ein Bit betragen. Die Wahrscheinlichkeit, dass zwei unabhängige Ereignisse auftreten, ist gleich
Produkt der Wahrscheinlichkeiten jedes Ereignisses, das heißt: p = p} x p 2
Um also die erste Bedingung mathematisch zu erfüllen,
Iip) = I(p1 x p j = I(pj) + I(pJ,
Wir wenden die logarithmische Funktion auf die Gleichung p =p1x p2 an. Die zweite Bedingung kann erfüllt werden, indem die Kehrwerte von p2 gebildet werden
und p2. Deshalb,
I i p ^ p J = logU/j^) + log(l /p2)
Um eine geeignete Basis zu finden, die die dritte Bedingung erfüllt, hätten wir Folgendes:
/ = logb( l /Pl) = logb (1/0,5) = logb (2) = 1 Bit.
Offensichtlich erfüllt Basis zwei (b=2) die Bedingung. Claude E. Shannon nennt den Logarithmus zur Basis zwei den binären Logarithmus.
Daher kann der Inhalt / eines einzelnen Symbols mit der Auftrittswahrscheinlichkeit p definiert werden als:
I{p) = log2 (l/p) = - log2(p) > 0 .
Der Informationsgehalt mehrerer Symbole kann gemäß der ersten Bedingung als Summe ihrer Einzelwerte bewertet werden:
= lof2 {yP) + lo&2 ( %) +- + 1o82 γl/Pj- oder
/ ,o ,d = Ê log2i = 1
Werner Gitt2 hat gezeigt, dass diese Gleichung äquivalent ist
NAotal = n X X p (Xj) X l o g 2 (1 /p(Xj)) = n X H ,
ich = 1
2 Werner Gitt, Ein neuer Ansatz zur Bewertung von Information - Beitrag zur Semantischen Informationstheory-em H. Kreikebaum etal. (Hrsg.),Verlag Duncker& Humblot, Berlin, 1985, p. 210-250.
242
In RNA anstelle von Thymin
Uracil (U).
wobei n – Anzahl der Symbole in einer SequenzN – mögliche Anzahl verschiedener Symbolex i – Sequenz von A verschiedenen Symbolen (z = 1... AO/ gesamt = Informationen, die in einer vollständigen Symbolsequenz enthalten sindH = durchschnittlicher Informationsgehalt jedes Symbols
Nehmen wir als Beispiel den genetischen Code. Dies ist ein Ausnahmefall, wenn die Symbole die gleiche Wahrscheinlichkeit haben.
Pi =P2=P3=~=Pn = P
Deshalb,
NAotal = n X 2 log2 (1 lpi) = n X log2 ( l / p ) = - n X lo g 2 (p)
ich = 1
wobei der durchschnittliche Informationsgehalt jedes Symbols gegeben ist durch:
H = log2 N.
0 Die menschliche DNA (menschlicher genetischer Code) ist etwa 2,10 m lang. Sie besteht aus 4 Nukleotiden (Anzahl der Symbole):
N = 4 (A, C, T und G oder Adenin, Cytosin, Thymin und Guanin)
und ungefähr 3,146 Milliarden Basen (Anzahl der verwendeten Symbole):
n = 3.146 x 109
Daher beträgt der durchschnittliche Informationsgehalt
H = log2 (4) = 2 Bits,
und die in einer vollständigen Zeichenfolge enthaltenen Informationen wären
/.otal = 3.146 x 109 x 2 = 6.292 x 109 Bits.
Die Menge an Informationen in der DNA würde der Information entsprechen, die in 3.146.000 A4-Seiten mit 2000 Buchstaben pro Seite enthalten wäre!
Es ist uns noch möglich, weitere interessante Informationen über die Eigenschaften des genetischen Codes zu erhalten.
Im genetischen Code gibt es 20 verschiedene Aminosäuren, also zwanzig verschiedene Kombinationsmöglichkeiten (N = 20). Nach Shannons Theorie beträgt der durchschnittliche Informationsgehalt
z'M = / total / n, wobei n die Anzahl der Aminosäuren wäre.
Deshalb,
/M = - n x log2 (p ) t « = log2 (p), em quep = 1IN,
unter der Annahme, dass alle Symbole mit der gleichen Häufigkeit auftreten.
z‘M = log2 20 = 4,32 Bits/Aminosäure.
Der Durchmesser der DNA-Helix beträgt etwa 2 nm (2x10~9 m) und der Abstand zwischen den Nukleotiden beträgt 0,34 nm. Eine vollständige Windung der DNA-Spirale umfasst zehn Nukleotide (zehn Buchstaben). Daher ist es möglich, die in der DNA enthaltene Informationsdichte zu berechnen.
V = 2. x h x d2, o4
V = a x (3,4 x 10 '7cm) x (2 x IO-7 cm ) 2 = 10,68 x IO' 21 cm34
Unter Verwendung des durchschnittlichen Informationsgehalts /M und unter Berücksichtigung der Tatsache, dass Aminosäuren Tripletts (auch Codons genannt, Beispiel Alanin, genetischer Code: GCA GCC GCG GCU) verwenden, hätten wir 4,32 -r 3 = 1,44 Bits/Buchstabe und die Dichte der genetischen Information wäre:
p = ----- 10 Buchstaben----- - = (0,94 x lO 21 Buchstaben/cm3) x (2 Bits/Buchstabe)10,68 x l 0 ' 21cm
p = 1,88 x 1021 Bit/cm3! Der größte, der der aktuellen Wissenschaft bekannt ist.
Eine 18-GB-DVD (Video) hat eine Informationsdichte von ungefähr:
p = 18.432.000.000 Bits – _ 2 x 1012 Bits/cm3.0.009345452746 cm 3
DNA speichert hundert Millionen Mal mehr Informationen pro Band als eine DVD! Es handelt sich um die höchste Dichte, die der aktuellen Wissenschaft bekannt ist.
Betrachten wir auch, was das DNA-Kodierungssystem zum effizientesten System macht, das bisher bekannt ist.
DNA-Moleküle haben 4 chemische Buchstaben (die Nukleotide A, C, T und G), es handelt sich also um einen quartären Code. Drei Paare benachbarter Nukleotide entsprechen einer bestimmten Aminosäure, sodass die Anzahl der Buchstaben pro Wort 3 beträgt. DNA verwendet 20 verschiedene Aminosäuren.
Daher wären die durchschnittlichen Informationen:
Informationsgehalt pro Buchstabe: i = log2(4) = 2 Bits/Nukleotid
Informationsgehalt in einem Triplett (Codon): / = 3 (Nukleotide/Triplett) x 2 (Bits/Nukleotid)/ = 6 Bits/Triplett
Informationsgehalt pro Aminosäure: i = log2 20 = 4,32 Bits/Aminosäure
Informationsgehalt pro Buchstabe in Bezug auf Aminosäuren:i = 4,32 (Bits/Aminosäure) + 3 (Nukleotide/Aminosäure)i - 1,44 Bits/Nukleotid oui = 1,44 Bits/Buchstabe,
wobei ein Nukleotid einem Buchstaben entspricht.
Vergleichen wir den DNA-Code, Basis 4, mit den Systemen Basis zwei und Basis sechs (die Basen drei und fünf wurden nicht berücksichtigt, da der Replikationsprozess eine gerade Anzahl von Symbolen verwendet).
Buchstaben pro Wort (L)
Basiscode 2 3 4
zwei n = 2 / , = i
c - 4 (= 2 ,0 ii
iiOO
Und
Ö
c p = !6
h = 4°
vier n - 4 ip ~ 2
cp = 16
iL = 4,0
Ö
Er II
cp = 256 /l = 8,0
seis n = 6 ip = 2,585
C, = 36
1 = 5.170 CP - 2 1 6
iL = 7.755cp = 1296 ( = 10.340
ip = log2(n) Informationsinhalt pro Wort (Bits/Wort)
iL = L x log2 (n) Informationsgehalt pro Buchstabe (Bits/Buchstabe)
cp = nL mögliche Kombinationen, um ein Wort mit L Buchstabenanzahl zu bilden, wobei n verschiedene Buchstaben verwendet werden
Der genetische Code verwendet nur zwanzig Aminosäuren, was bedeutet, dass es mindestens 20 verschiedene Möglichkeiten gibt.
Drei Bedingungen müssen erfüllt sein, damit wir das effizienteste System für den genetischen Code entdecken können:
• Der Speicherplatz sollte minimal sein. Je größer die Buchstabenanzahl, desto größer der Platzbedarf.
• Gerade Anzahl von Buchstaben, damit der Replikationsprozess stattfindet und Raum für Redundanz besteht und Fehler durch viele Replikationsprozesse begrenzt werden.
• Je weniger Symbole (Buchstaben) verwendet werden, desto geringer ist die Fehlerhäufigkeit und desto weniger komplex sind die Mechanismen.
Durch die zweite vorgeschlagene Bedingung würden die Systeme zur Basis 3 (n = 3) und zur Basis 5 (n = 5) beeinträchtigt. Daher blieben uns die Basissysteme zwei, vier und sechs.
Da der durchschnittliche Informationsgehalt der 20 Aminosäuren 4,32 Bits/Aminosäure beträgt (/L = log2 20), hätten wir folgende Möglichkeiten:
• Basiscode 2 (n = 2) als L > 4 (für L = 4, /, = 4,0) '• Basiscode 4 (n = 4) als L > 2 (für L = 2, iL = 4, 0) • Basiscode 6 (n = 6) als L = 2 (für L = 2, iL = 5,170)
Gemäß der ersten Bedingung würde ein Code zur Basis 2 (n = 2) mit L = 5 viel mehr Platz beanspruchen als ein Code zur Basis 4 {n = 4) mit L = 3 (Tripletts). Fünf statt drei Symbole bedeuten eine Vergrößerung des Speicherplatzes um 40 %. Andererseits würde ein Basis-6-Code {n = 6) nur ein L = 2 benötigen.
Wir haben also zwei Alternativen
• Basiscode 4 (n = 4) als L = 3 (für L = 2, iL = 6,0)• Basiscode 6 (n = 6) als L = 2 (für L = 2, iL = 5,170)
Gemäß der dritten Bedingung hätte ein Basis-4-Code (n = 4) mit L = 3 eine geringere Fehlerinzidenz und einen weniger komplexen Codierungs- und Decodierungsmechanismus als ein Basis-6-Code (n = 6) mit L = 2. Außerdem Es würde eine größere Redundanzkapazität bieten (iL = 5,170 des Basis-6-Codes gegenüber iL = 6,0 des Basis-4-Codes) und eine höhere Genauigkeit bei den Informationsübertragungsprozessen ermöglichen.
Auf diese Weise ist das von Lebensformen verwendete Codierungssystem aus technischer Sicht ein hochoptimiertes System, das den Vorschlag eines absichtlichen Designs weiter stärkt.
Anhang D
Studien von W. S. Adams und T. Dunham Jr. enthüllte einige Absorptionslinien, die als interstellare Moleküle von CH, CH+ und CN identifiziert wurden.1 Das Cyanid (CN)-Molekül hat eine Absorptionslinie, die als erster Rotationszustand der Anregung bekannt ist. Rotationsquantenzustände haben einen Energieabstand, der dem der Mikrowellenstrahlung entspricht.
E = hv = ^ , wo
E = Energie; h = Plancksches Wirkungsquantum; v = Frequenz; c = Lichtgeschwindigkeit; eX = Wellenlänge.
In diesen Fällen gilt: Je höher die Temperatur, desto größer ist die Wahrscheinlichkeit, gemäß der Boltzmann-Verteilung die höheren Energiezustände zu füllen.
N 2 „ = exp N j
JA zu T
, auf was
Der Füllungsgrad zweier Zustände mit unterschiedlicher Energie (AE) wird als Funktion einer Temperatur T (in Kelvin) angegeben, wobei k die Boltzmann-Konstante ist.
Andrew Mckellar analysierte die Daten, notierte die Anteile der Füllungen dieser Energiezustände und berechnete, dass sich die Cyanidmoleküle bei einer Temperatur von 2,3 K im thermischen Gleichgewicht befanden.2 Als Ursprung dieser Temperatur wurde die Hintergrundstrahlung angesehen. Der Übergang zwischen zwei Rotationszuständen kann Mikrowellenstrahlung mit einer Wellenlänge von 2,64 mm emittieren oder absorbieren, was sehr nahe am Spitzenspektrum eines schwarzen Körpers bei 3 Kelvin liegt.
1 T. Dunham Jr. und W.S. Adams, Publ. American Astronomical Society 9:5,1937.2 Zitiert von R.W. Wilson, The Cosmic Microwove Background Radiation, Nobel Lecture, 8
Dezember 1978. Originalversion: A. McKellar, Proc. Ast. Soc. Pac. 52:187, 1940 e Publ. Dominion Astrophysical Observatory Victoria B.C. 7(15):251,1941.
247
Anhang E
Zur Beschreibung des Universums wurden mehrere kosmologische Modelle entwickelt. Das am weitesten verbreitete Modell ist das ACDM-Modell (Lambda-Cold Dark Matter). Dieses Modell, das derzeit in der Urknallkosmologie verwendet wird, versucht, Beobachtungen des kosmischen Mikrowellenhintergrunds, großräumiger Strukturen und Supernovae zu erklären. Es ist auch das Modell, das zur Bestimmung des theoretischen Alters des Universums (13,7 x 109 Jahre) verwendet wird. Das Modell verwendet eine kosmologische Konstante A, die Albert Einstein durch die modifizierte Feldgleichung eingeführt hat:
RLtV Rgnv + ASiiv 8nG r,[IV(1)
Dabei stellen R und g die Zeit-Raum-Struktur dar, T stellt Materie dar (die die Zeit-Raum-Struktur beeinflusst) und G und c stellen Faktoren dar, die traditionelle Einheiten verwenden. Wenn A=0, reduziert sich Gleichung 1 auf die ursprüngliche relativistische Feldgleichung. Wenn T=0, beschreibt Gleichung 1 den leeren Raum (Vakuum).
Beobachtungen von C. Kochanek zeigten, dass der Wert der kosmologischen Konstante den Wert von 10'46 km-2 nicht überschreiten konnte.1 Aktuelle Werte der kosmologischen Konstante, die durch einen Proportionalitätsfaktor von 871 ermittelt wurden, können mit der Gleichung berechnet werden
Abel! 520 (Gasverteilung
überhitzt in Rot; Verteilung durch Schlussfolgerung von
Dunkle Materie in Blau)
(NASA-Foto)
A = 87m• V (2)
Dabei ist pvic die Vakuumdichteenergie (heute als schwarze Energiedichte bekannt). Ein positiver Wert der Vakuumenergiedichte würde einen Unterdruck bedeuten, was eine Beschleunigung der Ausdehnung des leeren Raums begünstigen würde. Die der kosmologischen Konstante A zugeordneten aktuellen Werte hängen von den Umrechnungseinheiten ab und werden normalerweise in 10'35 s~2, 10'47 GeV4 oder 10~29 g/cm3 ausgewertet.
Normalerweise erwähnen die verschiedenen Theorien der Kosmologie nicht direkt die kosmologische Konstante A, sondern das Verhältnis zwischen der Energiedichte bezogen auf die kosmologische Konstante und der kritischen Dichte des Universums. Dieses Verhältnis wird als Qy bezeichnet
Der aktuelle QA-Wert beträgt 0,74 für ein als flach betrachtetes Universum. Das bedeutet, dass 74 % der Dichte aller im Universum vorhandenen Energie vom Typ „dunkle Energie“ ist.
Bullet Cluster 1E0657-56 (Gasverteilung).
überhitzt in Rot; Verteilung durch Schlussfolgerung von
Dunkle Materie in Blau)
(NASA-Foto)
1 Christopher S. Kochanek, Is There a Cosmological Constant?, The Astrophysical Journal, August 1996, 466 (2), S. 638-659.
248 T
í i „ < l
£2»=1
Mögliche Krümmungen, die sich aus dem übernommenen kosmologischen Modell ergeben.
Ein weiterer mit dem ACDM-Modell verbundener Wert ist der der Dunklen Materie. Dunkle Materie kann als nicht-relativistisch (Geschwindigkeit viel geringer als die des Lichts) und nicht-baryonisch erklärt werden, die nicht durch die Emission von Photonen abkühlt und nur durch die Schwerkraft interagiert. Die vom Modell akzeptierte Dunkle Materie macht 22 % der Energie des Universums aus.
Daher besteht die Energiedichte, die zur Berechnung des Alters des Universums verwendet wird, zu 74 % aus dunkler Energie und zu 22 % aus dunkler Materie. Nur 4 % dessen, was für die Berechnungen verwendet wurde, stammt aus bekannter baryonischer Materie (3,6 % intergalaktische Gase + 0,4 Sterne usw.).
Es ist wichtig zu beachten, dass das ACDM-Modell absolut nichts über den Ursprung der Dunklen Energie oder Dunklen Materie aussagt. Dies sind akzeptierte Werte für eine Parametrisierung.
Alexander Friedmann entwickelte 1922 eine Reihe von Gleichungen aus den von Albert Einstein entwickelten Feldgleichungen. Sie wurden als Friedmann-Gleichungen bekannt und drücken die Ausdehnung des Raums durch ein homogenes und isotropes Modell des Universums im Kontext der Allgemeinen Relativitätstheorie aus:
2 _ 87iG p + A -K Ç ±Cl2 (3)
Dabei ist G die Gravitationskonstante, c die Lichtgeschwindigkeit im Vakuum, a ein Proportionalitätsfaktor und K die Gaußsche Krümmung, wenn <2=1 (Wert entsprechend der Gegenwart).
Durch Gleichung 3 kann beobachtet werden, dass, wenn die Krümmung K= 0 (flache Zeit-Raum-Geometrie) und A = 0 ist, ein kritischer Dichteparameter des Universums erhalten werden kann,
3 H 2SnG (4)P r
Dichteparameter {Ü.) werden in der Form ausgedrückt:
P_= 87iG p Pc 3 t f 2 (5)
Andere Parameter, die die Dichte ausdrücken, werden ebenfalls in die Friedmann-Gleichung einbezogen, die folgende Form hat:
a 2 ~ QRa-4 + QMa-3 + - Kc2 a -2(6)
Dabei steht für die aktuelle Strahlungsdichte, QM für die angenommene Dichte der heute im Universum vorkommenden Materie (dunkle und baryonische Materie), Qa für die kosmologische Konstante und Ho für den aktuellen Wert der Hubble-Konstante.
A 249
Die durch WMAP-Messungen ermittelte Krümmung der Raumzeit ist annähernd flach, was bedeutet, dass der Krümmungsparameter K Null ist.
Der H-Wert kann mit der Zeit variieren und je nach Verzögerungskoeffizient q steigend oder fallend sein, definiert durch:
« = -H2( f + " 2) (7)
Wenn der Wert von q £ 0 ist, ist es notwendig, die Friedmann-Gleichung von der Gegenwart bis zur Zeit Null zu integrieren. Wenn der Verzögerungswert gleich Null ist (q = 0), reduziert sich Gleichung 7 auf
H = 1t ,
Dabei ist H der Wert der Hubble-Konstante und t die Zeit der Hubble-Ära.
Der aktuell berechnete Parameter der Hubble-Konstante, 70,9 km/s/Mpc, beziffert das Alter des Universums auf 13,73 Milliarden Jahre.
Hierbei ist zu beachten, dass sowohl das Ziel der . Das Universum und sein Alter können theoretisch durch die Hubble-Konstante (//) bestimmt werden, indem man sie in Bezug auf den Verzögerungsparameter [q] extrapoliert, der durch die Dichteparameter (íl) gekennzeichnet ist.
Die nebenstehende Abbildung zeigt, dass sich ein offenes Universum (Í2<1) für immer ausdehnen würde und ein Alter hätte, das sehr nahe am derzeit akzeptierten Wert der Hubble-Ära liegt. Ein sich beschleunigendes Universum hätte den gleichen Wert wie die berechnete Hubble-Ära (akzeptiertes Modell). Im Falle eines geschlossenen Universums (Í2>1) wäre sein Alter erheblich geringer als das der Hubble-Ära und sein Ende würde in einem Big-Crunch liegen.
Überlegungen zum ACD-Modell Das ACDM-Modell weist grundlegende Probleme auf, die bisher ungelöst sind.
vereinbar. Es kann nicht gleichzeitig die Bedingungen für große und kleine Skalen erfüllen (große Skalen sind diejenigen, die im Universum von den COBE- und WMAP-Satelliten beobachtet werden, und kleine Skalen sind diejenigen, die in Teilen des Universums, wie unserer Galaxie und unserem Sonnensystem, beobachtet werden).
Der Hubble-Parameter (H) kann nicht direkt gemessen werden, da er mit der Zeit variiert (und im ACDM-Modell auch eine Funktion der verschiedenen Dichten ist). Daher kann die Hubble-Ära je nach übernommener Funktion unterschiedliche Werte annehmen.
Daher kann das Alter des Universums erheblich variieren.
(8)
beschleunigend4
Tempo
250 °C
Gruppierung von Galaxien CL0024+17
(NASA-Foto)
BCOMERanG-Experiment
Heute
danach
Mögliche Variation des Hubble-Parameters als Funktion der Zeit
Beispielsweise sind die Dichten (£2R, í i M und QA) Werte, die zur Berechnung des Alters des Universums (13,7 Milliarden Jahre) verwendet werden. Der durch Gleichung 6 erhaltene Hubble-Parameter hängt von diesen Dichten (Q) ab. Das bedeutet, dass das berechnete theoretische Alter des Universums zu 74 % von dunkler Energie + 22 % dunkler Materie abhängt (96 % der Angaben sind wissenschaftlich nicht bewiesen).
M. J. Jee und seine Kollegen gaben im Mai 2007 die Entdeckung eines Rings aus Dunkler Materie mit einer Ausdehnung von etwa 2,6 Millionen Lichtjahren in der Galaxiengruppe CL0024+17 bekannt (Abbildung auf der Seite)2. Diese sogenannte „Entdeckung“ wurde mit einem einzigen (derzeit beschädigten) Gerät des Hubble-Teleskops gemacht. Viele glauben, dass die vermeintliche „Entdeckung“ nichts anderes als ein Signal der verwendeten Ausrüstung (Rauschen) und kein Signal der beobachteten Quelle ist. Siehe Bilder auf Seite 249, in denen von verschiedenen Observatorien aufgenommene Bilder überlagert wurden, wobei versucht wurde, die infraroten (direkt erkennbaren) und sichtbaren (direkt erkennbaren) Teile von der schwarzen Energie (nicht erkennbar) zu trennen.
David B. Cline3 und Mordehai Milgrom4 schrieben im Scientific American, dass dunkle Materie und dunkle Energie Hypothesen seien, die nie wirklich verstanden werden könnten, wenn sie nicht in unseren Labors untersucht werden könnten. In seinen eigenen Worten „dienen die Begriffe, mit denen wir ihre Bestandteile ‚dunkle Materie‘ und ‚dunkle Energie‘ beschreiben, nur als Ausdruck unserer Unwissenheit.“ S.S. McGaugh erklärte, dass die durch das Experiment namens BOOMERanG (5alloon Observations Of M llim etric fetragalactic i?adiation and Geophysics) gewonnenen Informationen auf ein Universum schließen lassen, das nur aus baryonischer Materie besteht.5
CMD kann aufgrund von Einschränkungen der verwendeten Ausrüstung oder der eingesetzten Techniken auch heute noch unsichtbare baryonische Materie sein. Ein Beispiel sind die Neutrinos, deren Eigenmasse (Ruhemasse) in der Größenordnung von 20 eV liegt. Wenn es so viele Neutrinos gibt wie angenommen, dann hätten wir die Antwort auf die fehlende Masse und das Universum wäre geschlossen.
Aber unabhängig davon, ob CMD existiert oder nicht, gibt es noch andere Modelle mit unterschiedlichen Dichtewerten (einschließlich
2 M. J. Jee et al„ Discovery of a Ringlike Dork Matter Structure in the Core of the Galaxy Cluster 00024+17, The Astrophysical Journal, Volume 661, 2007, p. 728-749.
3 D. B. Cline, The Search for Dark Matter, Scientific American, März 2003.4 M. Milgrom, Does Dark Matter Really Exist?, Scientific American, August 2002.5 S.S. McGaugh, Boomerang Data Suggest a Purely Baryonic Universe, Astophysics Journal, 541:
L33-L36, 2000.
251
<^=0)6, von denen einige mit den vom WMAP-Probe erhaltenen Daten übereinstimmen. Somit können unterschiedliche Werte für den Hubble-Parameter gefunden werden (im Fall von £ \= 0 , Ho = 32,5 km/s VMpc1).
Was die Wissenschaft immer noch nicht kennt, ist die Variation des Hubble-Parameters im Laufe der Geschichte des Universums. Dieser Parameter wird als Konstante angenommen. Bei der Berechnung zur Bestimmung des Alters des Universums anhand von Gleichung (8) wurde davon ausgegangen, dass das Universum während seiner Existenz eine gleichmäßige Ausdehnung gehabt hätte (konstantes H). Geht man davon aus, dass der Hubble-Parameter einen konstanten Wert hat, lässt sich beobachten, dass das Alter des Universums umso kleiner ist, je größer dieser Wert ist (Gleichung 8).
Wenn Hubbles Parameter keine Konstante, sondern eine reale Funktion ist (siehe nebenstehende Abbildung), würde das berechnete Alter des Universums im Vergleich zum Wert des ACDM-Modells extrem jung aussehen.
Zusätzlich zu den Problemen mit der Existenz von CMD ist die Hintergrundstrahlung selbst (Cosmic Microradiation £>background, CMB) äußerst gut verteilt, praktisch ohne Schwankungen.
Diese beiden Probleme werden von Stephen Hawking in seinem Buch „A Brief History of Time“ angesprochen, in dem er sagt: „Dieses (Urknall-)Bild des Universums ... stimmt mit allen Beobachtungsbeweisen überein, die wir heute haben“; Dennoch räumt er ein: „Allerdings bleiben einige wichtige Fragen unbeantwortet.“ . . „7 Die wichtigen Fragen, die noch unbeantwortet bleiben, betreffen die nach dem Ursprung von Sternen und Galaxien.
Laut aktueller Kosmologie hätte die Temperatur des Universums rund 400.000 Jahre nach dem Urknall 3.000 Kelvin betragen, was einer Energie von 0,25 eV entspräche. Durch die vermeintliche Expansion hätte sich das Universum auf die aktuell gemessenen 2,7 Kelvin abgekühlt. Daher hätte sich das Universum seit der als Rekombinationsperiode bekannten Zeit (13.699.600.000) etwa 1.100 Mal abgekühlt. Dies wären etwa 2,18998x10~7 K/Jahr. Offensichtlich hängt dieser Wert mit der Expansionsrate des Universums zusammen.
Eine Temperatur von 3000 Kelvin impliziert einen Faktor von etwa 1000 relativ zur beobachteten Temperatur. Dieser Faktor hängt mit dem sogenannten Doppler-Effekt zusammen, bei dem sich die Strahlungsquelle relativ zum Beobachter (auf der Erde) bewegt. Ein schwarzer Körper, der sich von einem Beobachter entfernt, würde die Eigenschaften seiner Intensitätsverteilung beibehalten und nur eine scheinbare Änderung seiner Temperatur zeigen.
CMB-Karte, erstellt vom WMAP-Satelliten
Co smisches Mikrowellen-Hintergrundspektrum von CO BE
Theorie und Beobachtung
•
: / /-‘ \ :
-- \ :
1
1 ..1.. I T 1.1 110
Wellen / Cerrtimctcr
AMC-Spektrum, aufgenommen mit dem FIRAS-Instrument
auf dem COBE-Satelliten
Winkelskala 0,5* 0,2*
à WMAPAcborBoomorong
* 4 0 0 0 1
£\ 30001 o" |i 20001 r I .iji
1,1 Fuß
O Ü . i .u iu.nl_____ I—500 1000 1500
Mehrpolmoment l
Das sogenannte „Leistungsspektrum“ von CMB als Funktion der Winkelskala
(oder Multipolmoment). Die Daten stammen aus der
WMAP-, ACBAR-, BOOMERanG- und VSA-Instrumente.
6 D. N. Spergel et al., First-Year Wilkinson Microwave Anisotropy Probe (WMAP) Observations: Determination of Cosmological Para meter, The Astrophysics Journal Supplement, 148:175-194, September 2003, S. 188.
7 S. Hawking, A Brief History of Time: from the Big Bang to Black Holes, Bantam Press, London, 1988.
252 C c M O T J D 0 C
Anhang F
Lua
Hey
F F1 2
R
Die Gravitationskraft zwischen zwei Körpern ergibt sich aus der Gleichung:
F = G M ' M- * mr 2 W
Die Kraft des Mondes auf den Mittelpunkt der Erde ist proportional zu 1/R2. Ein Ozeanwasserteilchen direkt unter dem Mond würde aufgrund seiner Nähe eine größere Anziehungskraft erfahren, proportional zu l/(R-r)2. Da r (der Radius der Erde) viel kleiner ist als R (der Abstand zwischen Erde und Mond), beträgt der Unterschied zwischen diesen beiden Kräften ungefähr:
1R 2
(R-r)‘ 2 rR - r2 2 rR - 2r_ R 3 (2)(R -r)2 R 2 R 2 (R -r )2 R 2 (R -r)2 R 4
Da r konstant ist, ist die Höhe der Gezeiten proportional zur dritten Potenz des Abstands zwischen Erde und Mond (1/R3)'. Wenn sich der Abstand zwischen Erde und Mond verdoppeln würde, würden die Gezeiten nur noch ein Achtel des aktuellen Niveaus betragen.
Um den Mondrückgang zu verstehen, müssen wir das Erde-Mond-System mit den beteiligten Kräften verstehen, wie in der nebenstehenden Abbildung dargestellt.
Der Mond kann als feste Kugel betrachtet werden. Die Erde hingegen wäre eine Verbindung aus zwei Teilen: einem festen Teil (grau) und einem nicht festen Teil, dem der Ozeane in Blau.
Der Mond übt eine Gravitationskraft auf die Erde aus und zieht sie zu sich heran. Der feste Teil (größere Masse) erfährt eine kleine Verformung, aber der flüssige Teil, die Ozeane (geringere Masse), erleidet eine große beobachtbare Verformung: die Gezeiten. Da sich die Erde stärker dreht als der Mond (ca. 24 Stunden von der Erde und ca. 27 Tage vom Mond entfernt), wird die Ansammlung von Wasser bei Flut an den Punkten A und B durch die Erdrotation verzögert.
Daher übt der feste Teil der Erde eine G-Kraft auf den Mond aus. Die Ansammlung von Flutwasser bei A erzeugt auf dem Mond eine Kraft Gj, die etwas größer ist (weil er näher am Mond ist) als die Kraft G2, die durch die Ansammlung von Flutwasser bei B erzeugt wird.
Ansammlungen von Flutwasser an den Punkten A und B erzeugen im Mond zwei Komponenten (die den Mond in Richtung seiner Rotation beschleunigen) und F2 (die den Mond verlangsamen). Da F1 etwas größer als F2 ist, lässt sich aus der Gleichung eine kleine Tangentialbeschleunigung in Richtung Fx ableiten:
F 1- F 2 = M Lliaa = M Luaífc (3)dt
G ohne Index bezieht sich auf die Gravitationskonstante
A P Ê N D 253
Die daraus resultierende Beschleunigung dieser beiden Kräfte führt dazu, dass sich der Mond von der Erde entfernt. Der aktuelle Abstand beträgt 3,82 ± 0,07 cm pro Jahr.
Diese resultierende Kraft (Fl - F2) ermöglicht es uns, eine Altersgrenze für diese Wechselwirkung zwischen Erde und Mond zu finden.
Anhand der Dreiecke in der nebenstehenden Abbildung können wir die Proportionalität zwischen den Kräften und den Abständen feststellen.
Fi
V(R - r)2 + y 2 R - r
F2 _ y° 2 V(R + r )2 + y 2 R + r
, wobei R » r
, wobei R » r
(4)
(5)
Die aus den Gravitationskräften G1 und G resultierenden Kräfte F x und F2 lassen sich wie folgt ausdrücken:
Fi = Gi y — G ^Lua^ma y (R-r) (R-r)2 (R-r)
P _ y = Q MLua Mma y(R + r ) (R+r)2 (R + r)
(6)
(7)
Dabei ist MLua die Masse des Mondes und Mma die Masse des angesammelten Wassers bezogen auf die Flut an den Punkten A und B.
Deshalb,
('Fi - F2 — G MLuaMma ——— - GM ^uaM ^a------———(R - r )3 ( R + r )3
wobei: 1 1 6R 2r + 2r 3
(R - r)3 (R + r)3 (R - r)3 (R + r)3(9)
Da r << R, können wir die folgende Näherung vornehmen:
6R2r + 2 r3 _ 6R2r - 6r(R - r )3 (R + r )3 R6 R4 (10)
Das werden wir dann haben
Fi - F2 ~ GMLuaMma 6ry
R4 (11)
Aus Gleichung 2 ist ersichtlich, dass Mma proportional zu R3 ist,
Mma - Cr 3 , (12)
wobei C eine Proportionalitätskonstante ist. Wir können Gleichung 11 dann wie folgt umschreiben:
F | - F2 « 6ryG M Lua-£~r 7 (13)
Die Geschwindigkeit eines Körpers mit der Masse m auf einer Kreisbahn relativ zu einem anderen Zentralkörper mit der Masse M beträgt
G (M+m)rTV - V ------R------ (14)
Wenn wir die beiden Seiten der Gleichung nach der Zeit differenzieren, erhalten wir:
dR = (_2 )fdv\ R3/2dt vdt ' V G (M + m) (15)
Aus Gleichung 3 ergibt sich d v _ F i - F 2dt MLua (16)
Wenn wir die Gleichungen 13 und 16 in Gleichung 15 einsetzen und die jeweiligen Massen identifizieren, erhalten wir:
dR = (-2 )Í6 r y G C \ ____ R3/2dt ' R7 1 v G (MTerra + M Lua) (17)
Es ist wichtig zu beachten, dass die Verschiebung der Flutwassermasse an den Punkten A und B (y) proportional zur Winkelgeschwindigkeit der Erde ( y = k (G W « J (18) wobei K eine weitere Proportionalitätskonstante ist. Indem wir Gleichung 18 in Gleichung 17 einsetzen, können wir kombinieren die beiden Konstanten (C aus Gleichung 12 und K aus Gleichung 18) in eine einzige Gleichung,
d R =( -2 ) / 6 rG _______ CK_______ ([oTOTa - c o , Jdt \ . C, ( MT, M l W I R7 (19)
d R ^ ( ^ T e r r a ” *J)l.u.'j ■dt R '1/2 (20)
em that:
l G (M Terra + M l J )
Daher können wir aus Gleichung 20 erhalten:
cp = i m ____r ü ' 2_____' dt > (^Terra ' ^Lua) (22)
Alle Werte dieser Gleichung sind experimentell bekannt. Beispielsweise ist dR/dt die Entfernung vom Mond, 3,82 ± 0,07 cm/Jahr.
Wir müssen nun die Gleichungen erhalten, die uns zeigen, wie sich die Winkelgeschwindigkeiten der Erde und des Mondes auf den Abgang des Mondes auswirken.
Keplers 3. Gesetz sagt uns Folgendes:
_ / G (MTerra + ^Two)Two_ M --------------------------V (23)
Wenn wir die Drehimpulserhaltung auf das Erde-Mond-System anwenden, erhalten wir:
L = PTen-a^Terra + , M TerraM Lua RAo,(MTerra + M Lua) Lua (24)
Dabei ist L eine Konstante (Drehimpuls des Erde-Mond-Systems) und PEarth das polare Trägheitsmoment der Erde.
Durch die Kombination der Gleichungen 23 und 24 erhalten wir:
L MTerraMma / ' G RCÛTerraPTerra PTerra V (MTerra+ MLua) (25)
Die Lösung dieser Gleichung kann durch numerische Interaktion unter Verwendung der Gleichungen 20 und 23 und der drei Variablen (dR/dt, ooTerra und coLua) erhalten werden.
Mit fortschreitender Zeit werden zwei wichtige Phänomene beobachtet: (1) eine Annäherung des Mondes an die Erde und (2) eine Verlangsamung der Erdrotation. Auf der nächsten Seite sind einige aus diesen Berechnungen resultierende Werte aufgeführt.
Die Werte der für die Berechnungen verwendeten Konstanten, ausgedrückt in Sekunden, Minuten usw., wurden transformiert und in Jahren ausgedrückt.
G 6,6353 x 10-5 m3/kg«Jahr2 Gravitationskonstante
^Erde 5,9736 x 1024 kg Erdmasse
MlLua 7,3477 x 1022 kg Masse von LuaL 1,0871 x 1036 kg«km2/Jahr Terra-Lua-Drehimpuls
Erde 8,0680 x 1031 kg*km2 Trägheitsmoment der ErdeR 384.400 km Entfernung zwischen Erde und MondR .min 8.116,277 km Erde und Mond in KontaktdR 0,0000382 km/Jahr Entfernung vom Mond
WTena 2301,2569 rad/Jahr Winkelgeschwindigkeit der Erde2
WMond 84,0480 rad/Jahr Winkelgeschwindigkeit des Mondes3
Mit den Gleichungen 2, 22, 23 und 25 erhält man folgende Werte:
Entfernung Gezeitenhöhe Datum Rotation4 (km) (m) (Jahre) (Std:Min)
384.400 (1/ 1) 0,75 Stunden 23 Stunden 56m192.200 (1/2) 6,00 1.199.616.330 9h 54m128.133 (1/3) 20,25 1.205.766.808 7h 51m96.100 (1/4) 48 1. 206.103.948 6h 59m76 .880 (1/5) 93,75 1.206.147.587 6h 30m38.440 (1/ 10) 750,00 1.206.160.335 5h 32m19.220 (1/20) 6,00 0,00 1.206 160,495 5h 03m1 5,376 (1/25) 11.718,00 1.206.160.499 4h 57m
Zeit Distanz Geschwindigkeit in der Vergangenheit Erde-Mond Erdwinkel
(Jahre) (km) (Umsatzzeitraum - Stunden)1.000 384.400,0 23h 58m
10.000 384.399,6 23h 58m100.000 384.396,2 23h 58m
1.000.000 384.361,8 23h 57m10.000.000 384.016,5 23h 54m
100.000.000 380.420,3 23h 23m1.000.000.000 307.204,1 15h 49m
2 Bezieht sich auf die Drehung der Erde um ihre Achse.3 Bezieht sich auf die Bewegung des Mondes um die Erde.4 Berechneter Wert, transformiert, um die Dauer der Drehung der Erde um ihre eigene Achse (Tag) widerzuspiegeln.
Anhang G
Die spektrografische Rotverschiebung wird seit 80 Jahren untersucht.
1929 veröffentlichte Edwin Hubble die Ergebnisse seiner Forschungen zur Rotverschiebung. Er zeigte, dass es einen Zusammenhang zwischen der Wellenlänge (X), der Abweichung (ò\) und der Entfernung der Lichtquelle von der Erde (r) gibt:
F - ? ' n>
Seine Überlegungen folgten den gleichen Interpretationslinien wie Vesto Slipher und andere und argumentierten, dass die Änderungen der Wellenlängen ein Doppler-Effekt seien, der durch die Geschwindigkeit der Lichtquelle relativ zur Erde erzeugt werde. Wenn die Geschwindigkeit der Quelle (v) viel geringer ist als die Lichtgeschwindigkeit (c), dann:
Ô Zu ~ V /o\X c > .
Deshalb,
v ~ H r , (3)
Dabei ist H die Hubble-Konstante. Typischerweise wird der Betrag der Rotverschiebung ausgedrückt als
eine nicht-z-dimensionale Zahl.
7 = 8Àz ” X • (4)
William Tifft begann in den 1970er Jahren, eine statistische Standardtechnik zu verwenden, um Regelmäßigkeiten in den erhaltenen Daten festzustellen. In diesen Studien beobachtete Tifft, dass sich die zehn Werte in Intervallen von 0,024 % (z = 0,00024) anhäuften, was im Sinne eines Doppler-Effekts bei einer äquivalenten Geschwindigkeit von 72 km/s entsprechen würde. Seine Arbeit ergab, dass es eine ausgeprägte Periodizität für exakte Teiler (1/3 und 1/2) der äquivalenten Geschwindigkeit von 72,45 km/s gab.
Tifft zeigte, dass die von Galaxien präsentierten Rotverschiebungen quantisiert waren.
Im Jahr 1996 demonstrierte Tifft erneut, wie wichtig es ist, Rotverschiebungen zu kompensieren, indem er die Bewegung unserer eigenen Galaxie relativ zum Mikrostrahlungshintergrund (CMBR) berücksichtigt. Die zuvor beobachteten Gruppierungen wurden noch deutlicher und einige Periodizitäten
258 r ü d t
Figur 2
Minderjährige wurden deutlicher.Dr. Hussell Humphreys hat gezeigt, dass Cluster rotverschoben sind
Die von Tifft identifizierten Werte würden Clustern entsprechen, die sich auf Entfernungen beziehen.
Das räumliche Format solcher Cluster würde konzentrischen Kreisen entsprechen (Abbildung 1). Wenn wir die Gleichungen 1 und 4 kombinieren, erhalten wir
r - £ - z H .
Deshalb,
§/• = £. §7H
Aus Gleichung 3 können wir schließen, dass:
Ohr = Sv H •
(5)
(6)
(7)
Aktuelle Werte für die Hubble-Konstante liegen zwischen 70 und 80 km1 s/Mpc. Man kann die Hubble-Konstante wie folgt schätzen:
H = 75±5 km/s/Mpc oder 23+1,5 km/s pro Million Lichtjahre.
ô/- = 43.700 ± 2.900 Jahre ^ km/s
5V(8)
Zwei von Napier und Guthrie gefundene Rotverschiebungsintervalle, eines mit 37,5 km/s und das andere mit 71,5 km/s, würden zwei Entfernungen mit Intervallen von 1,6 bzw. 3,1 Millionen Lichtjahren entsprechen.
Diese Entdeckungen haben tiefgreifende Auswirkungen auf unser Verständnis des Universums und seines Ursprungs.
Nehmen wir Abbildung 2 als Grundlage, um die Auswirkungen zu verstehen. Mit dem Kosinusgesetz erhalten wir:
r - V r 2 + a 2 - 2 a r cos 0 (9)
Wenn a viel kleiner als r ist, kann Gleichung 9 mit einer Näherung umgeschrieben werden:
r' ~ r - a cos 0 (10)
Es wird beobachtet, dass die Variation für jeden Kreis zwischen r-a und r-va liegen muss, wobei die Standardabweichung als Funktion des Winkels 0 ist:
a e =V2
a(11)
Die Standardabweichung a als Funktion der Verteilung von r beträgt:
O = V Õj? + = y CT? + i in j 2 (12)
Es ist wichtig zu beachten, dass, wenn o viel größer wäre als der Abstand der konzentrischen Kreise, Ôr, die durch die Rotverschiebungen gebildeten Cluster nicht mehr unterscheidbar wären. Da sie beobachtbar sind, kann eine zweite Schlussfolgerung gezogen werden:
a < Gold.
Das bedeutet, dass wir, da wir diese Sternhaufen im kleinsten von Nappier und Guthrie beobachteten Intervall von 1,6 Millionen Lichtjahren beobachten können, nicht mehr als 100.000 Lichtjahre vom Zentrum dieses Sternhaufens entfernt sein dürfen.
Angenommen, das Universum hat einen maximalen Radius von 20 Milliarden Lichtjahren. Wie wahrscheinlich ist es dann, dass wir durch einen bloßen kosmischen Zufall so nahe am Zentrum sind? Die Wahrscheinlichkeit kann definiert werden durch
— 7T<2 3
von R
3_____ <4 von R
was uns eine Wahrscheinlichkeit von weniger als 5,12 x 10'13 geben würde! Diese Ergebnisse zeigen, dass unsere Nähe zum Zentrum des
Das Universum ist weit davon entfernt, ein bloßer kosmischer Zufall zu sein.
Diese Arbeit wurde von D. Russell Humphreys unter dem Titel „Unsere Galaxie ist das Zentrum des Universums“, „quantisierte“ Rotverschiebungen zeigen, vorgestellt. Die elektronische Version finden Sie unter www. Answersingenesis.org/tj/v16/i2/galaxy.asp
260 °C. M F r o J
Anhang H
Der im Fossilienbestand gefundene Beweis für früheres Leben auf dem Planeten Erde sind Fossilien. Daher wissen wir, dass das Leben in der Vergangenheit sowohl in den heute bekannten als auch in anderen, ausgestorbenen Formen existierte. Der angebliche evolutionäre Beweis dafür, dass sich solches Leben entwickelt hat, ist eine Frage der Interpretation des Fossilienbestands.
Ein Beispiel wäre die auf Fossilien basierende Interpretation (Beweis), die zu dem Schluss führen würde, dass sich der Mensch auf primitive Weise entwickelt hat (Interpretation).
Viele Fossilien, die eine Zeit lang als Vorfahren des Menschen gedeutet wurden, waren nichts anderes als Fehlinterpretationen (Nebraska-Mensch, Java-Mensch, Piltdown-Mensch und Peking-Mensch). Andere angebliche Vorfahren des Menschen wären lediglich Variationen von Orang-Utans, Gorillas und Schimpansen (Ramapithecus1 und Australopithecus afarensis2) gewesen. Einige andere waren echte Menschen mit Anomalien, die der modernen Medizin bekannt sind (Arthritis, Mikrozephalie und andere).
Zur Veranschaulichung können wir den Fall von Antonio Cabecinha erwähnen, einem Brasilianer mit Mikrozephalie. Der vom Team des Jornal Meio Norte (Jahr 2000) erstellte Bericht beschreibt einen Mann mit denselben Merkmalen, die in Evolutionsbüchern über die angeblichen Vorfahren des Menschen zu finden sind: rudimentäre Gesichtszüge, kleine Schädelhöhle (kleines Gehirn), eingeschränkte Kommunikationsfähigkeit , eingeschränkte Handhabung, Herstellung rudimentärer Werkzeuge, begrenzte Nahrung, Beweglichkeit im Wald (in seinem Fall brasilianische Wälder) und aufrechte Haltung.
Antonio „Cabecinha“ (mit Mikrozephalie) _____________________________________
1 Adrienne L. Zihlman und J. Lowestein, False Start of the Human Parade>, Natural History, August/September 1979, S. 86-91.
2 JackT. Stern Jr. und Randall L. Susman, The Locomotor Anatomy of Australopitecus Afarensis, American Journal of Physical Anthropology, Bd. 60, März 1983, S. 307.
Anhang I
Die Zerfallsrate dN/dt ist direkt proportional zur Anzahl der noch nicht zerfallenen Radioisotope,
Integrieren der Gleichung,
J ± d N = - ( X dl
Wenn wir die Integrale lösen, erhalten wir:
l nN- lnTV = -X t0
ln ( N / N ) = -X t
N = N0 Q-ht
Es ist wichtig, die Zerfallskonstante X als Funktion der Halbwertszeit des Elements zu definieren, da X ein Wert ist, der experimentell ermittelt wird.
Beachten Sie, dass die für N = 1/2 No erforderliche Zeit tm ist, was genau dem Konzept einer Halbwertszeit entspricht. Wenn wir also N in die Gleichung einsetzen, erhalten wir:
-1-A 0= N0e-zieh mich! •= e-^ i/22 2
Daher kann die Halbwertszeit durch den Ausdruck ermittelt werden
Das Alter einer Probe (Zeit t) ergibt sich bei Kenntnis der Anfangskonzentration (NJ) und der Endkonzentration (N) des radioaktiven Elements mit der Halbwertszeit t y2 durch die Gleichung:
^ , wobei X eine Zerfallskonstante ist.
2,302585092994 0,6931471805599
t\!2 log N -
Anhang J
Isochrondiagramm y-m x + b, in dem das Alter des Gesteins bestimmt wird: m - eM - 1. Daher ist f = 1/Âln (m + 1).
Herleitung der Isochronengleichung mit der Rubidium-Strontium (Rb-Sr)-Methode. Alle Proben müssen aus demselben größeren Gestein stammen. Es können mehrere Gesteine gleicher Herkunft verwendet werden. Damit die Methode funktioniert, müssen drei Bedingungen erfüllt sein.
1. Alle Proben sind gleich alt.2. Alle haben das gleiche Ausgangsverhältnis von 87Sr/86Sr.3. Erze weisen eine gewisse Variation im Rb/Sr-Verhältnis auf.
Die ursprünglichen Mengen der Isotope in der Probe sind: 87Rbo, 87Sro und 86Sro. Tatsächliche Mengen werden ohne den Index geschrieben. Das radiogene Isotop von Strontium wird mit 87Srro(f) bezeichnet
Die Gleichungen im Zusammenhang mit der Desintegration lauten:
87Rb = 87Rb e_X/.O
87Rb = 87Rb + 87Sr, o rad
87Sr = 87Sr - 87Srrad o
Wenn wir (2) und (3) in Gleichung (1) einsetzen, erhalten wir:
87Rb = (87Rb + 87Sr - 87Sr) e~Xt
(D
(2)
(3)
(4)
Dividiert man beide Seiten der Gleichung durch das stabile Isotop 86Sr, das in allen Proben vorhanden ist, erhält man:
87Rb/86Sr = (87Rb/86Sr + 87Sr/86Sr - 87Sr/86Sr) e ^ (5)
Wenn wir Gleichung (5) als Funktion von 87Sr/86Sr gruppieren, erhalten wir:
87Sr/86Sr = {e~)J - 1) 87Rb/86Sr + 87Sr/86Sr, (6)
Auf was:
87Sr/86Sr stellt die kumulative Menge von 87Sr dar,
(e~)J - 1) 87Rb/86Sr stellt die akkumulierte Menge von 87Rb dar und
87Sr /86Sr stellt die Ausgangsmenge dieser Isotope dar.
Die Gleichung auf Seite 166 ist die verallgemeinerte Form der Gleichung (6).
[-1 I 263
Die Diffusion von Helium in Zirkonkristallen folgt der Gleichung:
~ = D V2C& (1)
wobei C(x,y,z,t) eine Funktion ist, die die Konzentration definiert.,
d2 c)2 92 , .V = -------h -------1— — e o Laplace-Operator.
dx2 dy2 dz2
D ist der Diffusionskoeffizient, definiert durch Gleichung (2). Es wird experimentell erhalten. Der erste Term ist der intrinsische Teil und der zweite Term wird Defekten zugeordnet:
Anhang K
D = D 0 exp - £q_ R T
+ Von exp - ~ i~ | R T\ (2)
Normalerweise sind die Parameter des zweiten Termes (Defekte, Z)j und z y kleiner als die des ersten Termes (intrinsisch, DoeEo).
E, Bei Zirkon wandert Helium aus dem Kristall in die Umgebung (Biotit). Zur Vereinfachung, ohne Verlust der Verallgemeinerung, wird für die dreidimensionale Fragestellung des Problems (Größe der Zirkonkristalle, Radius „a“ und des Biotits, in dem sich der Kristall befindet, Radius „b“) eine Näherung durch eine Kugelsymmetrie zugelassen “) . Die Heliumdiffusion in Zirkon gilt als isotrop und fließt im Wesentlichen in alle drei Richtungen mit der gleichen Geschwindigkeit. Im Fall von Biotit ist sie jedoch nicht isotrop, da der überwiegende Teil des Heliums entlang einer zweidimensionalen Ebene (Spaltungsebene) fließt. Der Vereinfachung halber wird im Fall von Biotit eine Isotropie berücksichtigt (Anisotropie kann als Verfeinerung in Betracht gezogen werden, die in einer zukünftigen Arbeit vorgestellt werden soll). Ein beschleunigter Kernzerfall würde zunächst eine große Co-Konzentration von He erzeugen, die gleichmäßig im Zirkon, jedoch nicht im umgebenden Biotit verteilt wäre. Das He würde sich während einer Zeitspanne t aus dem Zirkon ausbreiten (diffusionieren) und in den Biotit eindringen. Wenn die Zeitspanne t kurz ist, wäre die zusätzliche Menge Q an He, die durch den Kernzerfall entsteht, im Vergleich zur Anfangsmenge Q sehr gering. Zirkon Biotit
Als Anfangsbedingungen für t = 0 gelten: C(r) = Co für r < a und C(r) = 0 für r > a.
Nach der Zeit t - 0 sollte Kontinuität sowohl für den C- als auch für den He-Fluss bestehen, für r - a.
Die Lösung der Gleichung (1) in radialer Form und mit mehreren Koeffizienten für die beiden verschiedenen Regionen wurde 1945 von R. R. Bell veröffentlicht. Wenn man davon ausgeht, dass der Diffusionskoeffizient von He in Zirkon für die beiden Medien gleich ist, kann die mathematische Arbeit vereinfacht werden, was zu einem Fehler im He-Ausgangsflusswert von etwa 30 % (langsamer als der tatsächliche) und damit zu einer längeren Zeit führt. als die tatsächliche Diffusionszeit.
Mit diesen Vereinfachungen reduziert sich Bells ursprüngliche Lösung auf eine neue Gleichung, die von Carslaw und Jaeger abgeleitet wurde. Alle diese Gleichungen befassen sich mit der Strömung
C {u) = 2 C 1 [ bM l j m b
n=\Der im Zirkon zurückgehaltene He-Anteil, Q/Q0, nach der Diffusionszeit t, kann
durch das volumetrische Integral jedes Termes berechnet werden:
<2(0 = 4 n C(r,t)r2 dr,/o
<2 o -
(4)
(5)
Wenn wir C(r,t) aus Gleichung (3) in Gleichung (4) einsetzen, integrieren und dann durch Gleichung (5) dividieren, erhalten wir die Menge an He, die nach einer Zeit t im Zirkon zurückbleibt, durch Gleichung (6):
<2(0Qo
N-\
6b 3 [ s jn« M _ nna cosnnan 4n 4a 3 - b b b
2 exp _n ?n2D t- b 2 -
Die Lösung kann durch die folgende Transformation erhalten werden:
NF (x) = ^ Sn expr n 2x
n-\(7)
wobei Sn die Funktion ist, die definiert ist durch:
c\nniici _ nna cosnna_b (8)
265
Die anderen Begriffe sind:
F(x) Q(t) Qo
x - n 2D tb 2 (9,10)
Mit diesen Ersetzungen und unter Verwendung eines Werts für N = 300 kann bei Berechnungen mit Programmen wie Mathematica, Maple oder Mathcad ein hervorragendes Maß an Präzision erreicht werden.
Die analysierten Proben hatten folgende Werte:
Tiefe (m)
Temperatur (°C)
Er(10'9 crrvVpg)
Q/Q0-Fehler
0 0 20 8,2 - -
1 960 105 8,6 0,58 ±0,17
2 2170 151 3,6 0,27 ±0,08
3 2900 197 2,8 0,17 ±0,05
4 3502 239 0,16 0,012 ±0,004
5 3930 277 «0,02 «0,001 -
6 4310 313 «0,02 «0,001 -
Tabelle 1 – Heliumretention in Jemez Granodiorit-Zirkonen
Da die bewerteten Zirkonkristalle eine Länge zwischen 50 und 75 µm aufwiesen, wurde als Radiuswert *30 µm angenommen. Die Biotitproben waren etwa 0,2 mm dick und hatten einen Durchmesser von etwa 2 mm. Daher wurde für den Radius b der Wert „l.OOOpm“ angenommen.
Mit diesen Daten und mit Gleichung (7) ist es dann möglich, die Diffusionskoeffizienten (cm2/s) von Helium als Funktion der verstrichenen Zeit zu berechnen und sie mit den Werten der Proben zu vergleichen.
Das hier naturalistisch genannte Modell muss das mit der U-Th-Pb-Methode datierte Alter verwenden, dessen Wert 1,5 Milliarden Jahre (4,73 x 1016 Sekunden) betrug. Die berechneten Werte für D finden Sie in der folgenden Tabelle.
Tiefe (m)
Temperatur (°C)
Q/Q0 D(cm2/s)
Fehler
1 960 105 0,58+0,17 2,1871 x 10-23 ±30
2 2170 151 0,27 ± 0,08 4,6981 x 10'23 ± 30
3 2900 197 0,17±0,05 7,4618 x 10-23 ±30
4 3502 239 0,012±0,004 1,0571 x 10-23 ±30
5 3930 277 «0,001 1,2685 x 10-23 —
Das kreationistische Modell stellt beispielhaft nur die unterschiedlichen Werte von D dar, wenn das Gestein nur wenige tausend Jahre alt wäre. Zur Berechnung wurde die Zeit t = 6.000 Jahre (1,892 x 1011 Sekunden) herangezogen.
Tiefe (m)
Temperatur (°C)
Q/Q D(cm2/s)
Fehler
1 960 105 0,58 ± 0,17 3,2103 x 10-18 +122 -67
2 2170 151 0,27±0,08 1,3175 x 10-17 +49 -30
3 ! 2900 197 0,17±0,05 2,1937 x 10-17 +39 -24
4 3502 239 0,012 ± 0,004 1,7798 xlO-16 +33 -18
5 3930 277 «0,001 9,7368 x IO46 —
Die folgende Grafik zeigt die Werte des He-Diffusionskoeffizienten (D), die in den untersuchten Proben gefunden wurden, mit den Koeffizienten, die von den beiden Modellen mit unterschiedlichen Zeitskalen generiert wurden.
Die Studie zeigt, dass den Zirkonen und dem Gestein, in dem sie gefunden wurden, eine relativ kurze Zeit (4.000 bis 14.000 Jahre) zugeschrieben werden muss
V 10-“
Ich ,0-
Q-io-15o m (/)
si 10-17 Q O 1 0 -23 Die berechneten Diffusionskoeffizienten sind mit denen der untersuchten Proben kompatibel. Diese Studie wirft auch Zweifel an der Gültigkeit der von radiometrischen Datierungsmethoden angenommenen Interpretation der langen Zeiträume des Kernzerfalls auf. • Daten zu Jemez-Zirkonen n kreationistisches Modell Faktor von ± 100.000 uniformitäres naturalistisches Modell 1,4 1,6 1,8 2,0 2,2 2,4 2,8 Inverse Temperatur, 10001 T(K) DR. Humphreys, S.A. Austin, J.R. Baumgardner und A.A. Snelling, Heliumdiffusionsraten unterstützen beschleunigten nuklearen Zerfall, Institut für Schöpfungsforschung (www.icr.org/pdf/research/Helium_ICC_7-22-03.pdf)
Anhang L
Die Kohlenstoff-14-Datierungsmethode folgt dem Modell des radioaktiven Zerfalls:
= - XN mdt ’ [i)
deren Lösung die Gleichung ist
N = N0e- h f wobei (2)
Nein ist die Anzahl der Kohlenstoff-14-Atome zum Zeitpunkt t = 0.Néò. Die Anzahl der nach einer Zeit t.À verbleibenden Atome ist die Zerfallskonstante von Kohlenstoff-14.
{avg = ^ em dass (3)
tavg ist die durchschnittliche Lebensdauer von Kohlenstoff-14-Atomen (8033 Jahre*)
h!2 - tavg ln 2, wobei (4)
ty2 ist die Halbwertszeit von Kohlenstoff-14-Atomen (5.568 Jahre*). Daher für eine Berechnung des Datums einer bestimmten Probe nicht erforderlich
Keine Kalibrierung, wir können die durchschnittliche Lebensdauer von Kohlenstoff-14 verwenden
tBP = í- ln-—- für Datumsangaben oder (5)
tBF = ~3L <6)
seit Ewigkeiten; In dieser Gleichung bedeutet das Minuszeichen nur, dass die Zeit ab 1950 rückwärts gezählt werden muss.
Oder man kann die Halbwertszeit von Kohlenstoff-14 über die Gleichung verwenden
Í B P = ~ t 1/2 l°g 2 - ~ - (7)/Vn
Diese Werte wurden von Williard Libby berechnet und werden immer noch für unkalibrierte Berechnungen verwendet, wobei Daten im BP-Format (Before Present) angeboten werden, wobei das Jahr 1950 als Referenzjahr gilt.
Anhang M
Liste wissenschaftlicher Veröffentlichungen, zusammengestellt von P. Giem und J. Baumgardner, die die Existenz von Kohlenstoff-14 in Proben dokumentieren, die keine Spuren dieses Elements enthalten sollten.
1 [1] Aerts-Bijma, A.T., Meijer, H.A.J. und van der Plicht, J., AMS Sample Handling in Groningen, Nuclear Instruments and Methods in Physics Research B, 123(1997), S. 221-225.
1 [2] Arnold, M., Bard, E., Maurice, P. und Duplessy, J.C., UC Dating with the Gif-sur-Yvette Tandetron Accelerator: Status Report, Nuclear Instruments and Methods in Physics Research B, 29( 1987), S. 120-123.
1 [8] Beukens, R.P., High-Precision Intercomparison and Isotrace, Radiocarbon, 32(1990), p. 335-339.
1 [9] Beukens, R.P., Radiocarbon Accelerator Mass Spectrometry: Background, Precision, and Accuracy, Radiocarbon After Four Decades: An Interdisciplinary Perspective, Taylor, R.E., Long, A., and Kra, R.S., Herausgeber, 1992, Springer-Verlag , New York, S. 230-239.
[10] Beukens, R.P., Radiocarbon Accelerator Mass Spectrometry: Background and Contamination, Nuclear Instruments and Methods in Physics Research B, 79(1993), S. 620-623.
[11] Beukens, R.P., Gurfinkel, D.M. und Lee, H.W., Progress at the Isotrace Radiocarbon Facility, Radiocarbon 28(1992), S. 229-236.
[12] Bird, M.I., Ayliffe, L.K., Fifield, L.K., Turney, C.S.M., Cresswell, R.G., Barrows, T.T. und David, B., Radiocarbon Dating of „Old“ Charcoal Using a Wet Oxidation, Steped-Combustion Procedure, Radiocarbon, 41:2(1999), S. 127-140.
[13] Bonani, G., Hofmann, H.-J., Morenzoni, E., Nessi, M., Suter, M. und Wõlfli, W., The ETH/SIN Dating Facility: A Status Report, Radiocarbon 28 (1986), S. 246-255.
[15] Donahue, D.J., Beck, J.W., Biddulph, D., Burr, G.S., Courtney, C., Damon, P.E., Hatheway, A.L., Hewitt, L., Jull, A.J.T., Lange, T., Lifton, N ., Maddock, R., McHargue, L.R., O'Malley, J.M. und Toolin, L.J., Status of the NSF-Arizona AMS Laboratory, Nuclear Instruments and Methods in Physics Research B, 123(1997), S. 51-56.
[16] Donahue, D.J., Jull, A.J.T. und Toolin, L.J., Radiocarbon Measurements at the University of Arizona AMS Facility, Nuclear Instruments and Methods in Physics Research B, 52(1990), p. 224-228.
[17] Donahue, D.J., Jull, A.J.T. und Zabel, T.H., Ergebnisse von Radioisotopenmessungen am NSF-University of Arizona Tandem Accelerator
Massenspektrometeranlage, Nukleare Instrumente und Methoden in der physikalischen Forschung B, 5(1984), S. 162-166.
[19] Gillespie, R. und Hedges, R.E.M., Laboratory Contamination in Radiocarbon Accelerator Mass Spectrometry, Nuclear Instruments and Methods in Physics Research B, 5(1984), S. 294-296.
[20] Grootes, RM., Stuiver, M., Farwell, G.W., Leach, D.D. und Schmidt, F.H.,Radiocarbon Dating with the University of Washington Accelerator Mass Spectrometry System, Radiocarbon, 28(1986), S. 237-245.
[21] Gulliksen, S. und Thomsen, M.S., Estimation of Background Contamination Levels for Gas Counting and AMS Target Preparation in Trondheim, Radiocarbon, 34(1992), p. 312-317.
[22] Gurfinkel, D.M., An Assessment of Laboratory Contamination at the Isotrace Radiocarbon Facility, Radiocarbon, 29(1987), p. 335-346.
[24] Jull, A.J.T., Donahue, D.J., Hatheway, A.L., Linick, T.W. und Toolin, L.J., Production of Graphite Targets by Deposition from CO/H2for Precision Accelerator 14C Measurements, Radiocarbon, 28(1986), S . 191-197.
[25] Kirner, D.L., Taylor, R.E, und Southon, J.R., Reduction in Backgrounds of Microsamples for AMS 14C Dating, Radiocarbon, 37(1995), S. 697-704.
[26] Kirner, D.L., Burky, R., Taylor, R.E. und Southon, J.R., Radiocarbon Dating Organic Residues at the Microgram Level, Nuclear Instruments and Methods in Physics Research B, 123(1997), p. 214-217.
[27] Kitagawa, H., Masuzawa, T., Makamura, T. und Matsumoto, E., A Batch Prepared Method for Graphite Targets with Low Background for AMS 14C Measurements, Radiocarbon, 35(1993), S. 295-300.
[28] Kretschmer, W., Anton, G., Benz, M., Blasche, S., Erler, E., Finckh, E., Fischer, L., Kerscher, H., Kotva, A., Klein, M., Leigart, M. und Morgenroth, G., The Erlangen AMS Facility and Its Applications in 14C Sediment and Bone Dating, Radiocarbon, 40(1998), p. 231-238.
[29] McNichol, A.P., Gagnon, A.R., Osborne, E.A., Hutton, D.L., Von Reden, K.F. und Schneider, R.J., Improvements in Procedural Blanks at NOSAMS: Reflections of Improvements in Sample Preparation and Accelerator Operation, Radiocarbon, 37( 1995), S. 683-691.
[30] Nadeau, M-J., Grootes, P.M., Voelker, A., Bruhn, F., Duhr, A. und Oriwall, A., Carbonate 14C Background: Does It Have Multiple Personalities?, Radiocarbon, 43:2A( 2001), S. 169-176.
[31] Nakai, N., Nakamura, T., Kimura, M., Sakase, T., Sato, S. und Sakai, A., Accelerator Mass Spectroscopy of 14C at Nagoya University, Nuclear Instruments and Methods in Physics Research B, 5(1984), p. 171-174.
[32] Nelson, D.E., Vogel, J.S., Southon, J.R. und Brown, T.A., Accelerator Radiocarbon Dating at SFU, Radiocarbon, 28(1986), p. 215-222.
[33] Pearson, A., McNichol, A.P., Schneider, R.J. und Von Reden, C.F., Microscale AMS 14C Measurements at NOSAMS, Radiocarbon, 40(1998), p. 61-75.
[35] Schleicher, M., Grootes, P.M., Nadeau, M-J. und Schoon, A., The Carbonate 14C Background and Its Components at the Leibniz AMS Facility, Radiocarbon, 40(1998), p. 85-93.
[36] Schmidt, F.H., Balsley, D.R. und Leach, D.D., Early Expectations of AMS: Greater Ages and Tiny Fractions. Ein Fehler? — One Success, Nuclear Instruments and Methods in Physics Research B, 29(1987), p. 97-99.
[37] Snelling, A.A., Radioaktives „Dating“ im Konflikt! Fossiles Holz in antiken Lavaströmen liefert Radiokarbon, Creation ExNihilo, 20:1(1997), S. 24-27.
[43] Terrasi, F., Campajola, L., Brondi, A., Cipriano, M., D'Onofrio, A., Fioret-to, E., Romano, M., Azzi, C., Bella, F ., und Tuniz, C., AMS am TTT-3 Tandem Accelerator in Neapel, Nuclear Instruments and Methods in Physics Research B, 52(1990), p. 259-2
[44] Van der Borg, K., Alderliesten, C., de Jong, A.F.M., van den Brink, A., deHaas, A.P., Kersemaekers, H.J.H. und Raaymakers, J.E.M.J., Precision and Mass Fractionation in 14C Analysis with AMS, Nukleare Instrumente und Methoden in der physikalischen Forschung B, 123(1997), p. 97-101.
[45] Vogel, J.S., Nelson, D.E. und Southon, J.R., 14C Background Levels in an Accelerator Mass Spectrometry System, Radiocarbon, 29(1987), S. 323-333.
[47] Wild, E., Golser, R., Hille, P., Kutschera, W, Priller, A., Puchegger, S., Rom, W. und Steier, P., First 14C Results for Archaeological and Forensic Studien am Wiener Umweltforschungsbeschleuniger, Radiocarbon, 40(1998), S. 273-281.
271
Anhang N Gebirgszüge scheinen einer Komprimierung unterzogen worden zu sein
eher horizontal als vertikal. Eine in Lehrbüchern häufig vorkommende Erklärung ähnelt dem Gleiten zweier Blöcke übereinander, wobei eine Verschiebungskraft auf den Oberkörper wirkt, wie in der Abbildung unten. Ein solcher Mechanismus dürfte für die Faltenbildung in Gebirgszügen verantwortlich sein.
Der obere Block hat eine Breite L, eine Länge C und eine Höhe A. Eine Kraft F, die auf den oberen Block drückt, übt einen Druck aus, der den Kompressionskoeffizienten dc des Blocks nicht überschreiten kann. Der Reibungskoeffizient zwischen den beiden Oberflächen beträgt \i. Der Haftreibungskoeffizient beträgt a und die Erdbeschleunigung beträgt g (9,8 m/s2). Die Dichte des oberen Blocks beträgt p.
Damit eine Bewegung stattfinden kann, muss die Kraft F größer sein als die Reibungskraft Fa, die der Bewegung Widerstand leistet:
F = c L A > F a = p g ( L AC)p., außer (1)
C < - ° Ç - . (2)P g M' { ’
Ersetzen der Werte durch die Graniteigenschaften,
p = 2,7 x 103 kg/m3 ac = 1,3 x 108 N/m2 \jl = 0,6
C < ________ k 3 * 108 N/m2________= 8 .188 m2,7 x 103 kg/m 3 x 9,8 m/s2 x 0,6 (3)
Ein Granitblock mit einer Länge von mehr als 8,2 km würde dem Druck einer Kraft nicht standhalten, die versucht, ihn über eine ungeschmierte Oberfläche zu schieben. Berge entstanden nicht durch die horizontale Bewegung von Gesteinen ohne Schmierung zwischen den Kontaktflächen.
Diese Berechnungen wurden von Dr.
Walt Brown, kein einziges Buch „In The Beginning: Compelling Evidence for Creation“ und
die Sintflut (7. Auflage), Technische Anmerkung 11.
G L O S S Á R I O
Als Pa l a v r a s
MIT ANDEREN WORTEN
"F. IJMA PROVA I)F. HIGH C U L T U R SAGT DIE GRÜNDLICHSTE DINGE AUF EINFACHSTE WEISE.“
E M E R S O N
„W E N O S I C O M P R E E N D E. ICH KANN NICHT.“
G o e d e
Teer: Stoff, der durch destruktive Destillation von Holz, Torf oder Mineralkohle unter Luftabschluss entsteht.
Allele: verschiedene Formen desselben Gens.
Bernstein: ist ein Mineraloid organischen Ursprungs mit heterogener Zusammensetzung, verbunden mit einer unlöslichen bituminösen Substanz, die aus Harzen von Nadelbäumen und Hülsenfrüchten gewonnen wird, die, wenn sie für einen bestimmten Zeitraum vergraben waren, einem Versteinerungsprozess namens Polymerisation unterzogen wurden.
Ano-Lwg: Einheit zur Messung der Entfernung von Objekten im Weltraum. Ein Lichtjahr entspricht der Distanz, die das Licht in einem Jahr zurücklegt: 9,46 Billionen Kilometer.
Bfogjeograíia: Untersuchung der geografischen Verteilung von Lebewesen.
Biosphäre: Teil der Welt, in dem Leben existieren kann. In unserem Fall der Planet Erde.
Gravitationsfeld: Mittel, durch das die Schwerkraft ihren Einfluss ausübt.
Karphoosisierung: ist der Prozess der Fossilisierung, bei dem Weichgewebe durch Verdunstung (Verflüchtigung) von Wasserstoff, Sauerstoff und Stickstoff als Kohlenstofffilm erhalten bleibt.
Plamck-Länge: Die von der Stringtheorie vorgeschlagene typische Länge einer Saite, die dem kleinen Abstand von 10,37 Metern entspricht.
Katalyse: Beschleunigung einer chemischen Reaktion durch einen Stoff.
Katastrophe: Vorschlag, dass die aktuellen Aspekte der Geologie und Geographie des Planeten Erde das Ergebnis von Katastrophen großen Ausmaßes sind, die sich in der Vergangenheit ereignet haben.
Kosmologische Konstante: eine mathematische Konstante, die Albert Einstein in seinen Gleichungen verwendet, um die Schwerkraft auszugleichen. Diese Konstante wirkte als abstoßende Kraft auf die Materie.
Schwarzer Körper: ein (als ideal angesehener) Körper, der in der Lage ist, die gesamte einfallende Energie, die über ihn abgestrahlt wurde, in allen Wellenlängen zu absorbieren und dabei die gleiche Energiemenge auszusenden, die er absorbiert.
275
somit im thermischen Gleichgewicht mit der Umgebung.
Kreationismus: Kosmovision, die besagt, dass der Ursprung des Universums und des Lebens das Ergebnis eines absichtlichen kreativen Aktes ist.
Biblischer Kreationismus (BC): die These, dass die Natur durch einen schöpferischen Akt Gottes ins Leben gerufen wurde, gemäß dem biblischen Bericht im ersten Kapitel des Buches Genesis in der Bibel.
Wissenschaftlicher Kreationismus: geht davon aus, dass die in der Natur vorkommende Komplexität das Ergebnis eines absichtlichen kreativen Aktes ist. Dieser Vorschlag basiert auf intelligentem Design, das in der Natur zu finden ist. Die kreationistische Wissenschaftsgemeinschaft stützt einen solchen Vorschlag auf wissenschaftliche Beweise und nicht auf religiöse Schöpfungsberichte. Einige Variationen des wissenschaftlichen Kreationismus sind: L.A.C. (Langzeitkreationismus), O.E.C. (OldEarth Creationism) und Y.E.C. [YoungEarth Creationism – Junge Erde Kreationismus).
Meligious-Kreationismus: religiöser Vorschlag, der die Schriften einer bestimmten Religion über den Ursprung des Lebens und des Universums im Glauben als wahr anerkennt. Der in Genesis 1:1-2:4a beschriebene biblische Schöpfungsbericht ist ein Beispiel für religiösen Kreationismus. Diese Formen des Kreationismus werden oft mit wissenschaftlichen Vorschlägen verwechselt.
Codon: Satz von drei Nukleotiden in der DNA-Sequenz, die für eine Aminosäure kodieren.
Barwimismus: Evolutionstheorie, die im 19. Jahrhundert von Charles Darwin (und Alfred Russel Wallace) entwickelt wurde. Der Darwinismus stellt die natürliche Selektion als den grundlegenden Mechanismus der Evolution dar. Somit ist der Darwinismus eine Theorie, die erklären will, wie die Evolution stattgefunden hätte. Das 1859 von Darwin veröffentlichte Buch „The Origin of Species“ machte die Theorie populär.
D Endroeronologie: Inkrementelle Datierungsmethode, die die Anzahl der Ringe und die Dicke jedes Rings in Baumstämmen bewertet.
Intelligentes Design: stellt fest, dass empirisch nachweisbare intelligente Ursachen notwendig sind, um die informationsreichen biologischen Strukturen und die Komplexität der Natur zu erklären.
Mittel-Oäisches Dorsal: Hierbei handelt es sich um eine ununterbrochene (ungefähr 74.000 km lange) Gebirgskette auf dem Grund der Ozeane, die symmetrisch entlang des Kontinentalbodens angeordnet ist.
Embryologie: Untersuchung der Entwicklungsstadien, die der Embryo vor der Geburt oder während der Inkubation durchläuft.
Schwarze Energie: theoretisches Konzept zur Erklärung eines Ursprungs der möglichen Expansion des Universums durch eine abstoßende Kraft, die der Schwerkraft entgegenwirken kann.
Energie der Leere: Energie, die auch im leeren Raum vorhanden ist (siehe schwarze Energie).
Entropie: Maß für den Unordnungszustand eines physikalischen Systems.
Es handelt sich um eine geologische Zeitskala: Es handelt sich um die Haupteinteilung der geologischen Zeitskala. Die drei anerkannten Äonen (vom jüngsten zum ältesten) sind: Phanerozoikum, Proterozoikum und Archäikum. In der wissenschaftlichen Literatur wird ein viertes Äon, das Hadäer, vor dem Archäer erwähnt. Die dem Phanerozoikum vorausgehenden Äonen werden als Präkambrium bezeichnet.
Theorie des unterbrochenen Gleichgewichts (Pontualismus), bei der die Artbildung in kleinen Populationen stattfindet, die geografisch von anderen Populationen ihrer Art getrennt sind, wobei die Evolution in diesen kleinen Gruppen schnell erfolgt wäre.
Geologisches Zeitalter: Es ist die Einteilung eines Äons auf der geologischen Zeitskala.
Evolution: (Biologie) naturalistische Theorie, die die Veränderung der erblichen Merkmale einer Population über aufeinanderfolgende Generationen hinweg berücksichtigt (bestimmt durch Verschiebungen der Allelfrequenzen von Genen). Diese Veränderungen wären zusammen mit langen Zeiträumen für die Entstehung neuer Arten verantwortlich gewesen. Nach dieser Theorie sind alle heute lebenden Organismen das kumulative Ergebnis evolutionärer Veränderungen über Milliarden von Jahren und durch gemeinsame Abstammung miteinander verbunden.
Theistischer Evoluklonismus: Theorie, die besagt, dass Gott die Evolution gesteuert hat und sowohl die Entstehung primitiver Lebensformen verursacht hat als auch
die Entwicklung komplexer Lebensformen.
Phylogenie: Genealogie einer Gruppe von Organismen, meist Arten.
Binäre Spaltung (Zellteilung): Dies ist die Methode, mit der sich Bakterien vermehren. Nachdem das DNA-Molekül dupliziert wurde, teilt sich die Zelle in zwei identische Zellen, von denen jede eine exakte Kopie der DNA der ursprünglichen Zelle enthält.
Fraktionierung: Es handelt sich um einen der Kristallisationsprozesse, der sowohl im Erdmantel als auch in der Erdkruste abläuft, wo die Entfernung und Segregation von Kristallen stattfindet und die Zusammensetzung der wichtigsten chemischen Elemente des Magmas verändert.
Stratigraphie: Bereich der Geologie, der auf relative Weise Gesteinsschichten nach Formationssequenzen untersucht und chronologisch klassifiziert.
Stratum: eine Sedimentschicht.
E x Nihilo: (lateinisch) aus dem Nichts.
Doppler-Effekt. die scheinbare Änderung der Farbe des Lichts (elektromagnetische Strahlung) im Verhältnis zur Geschwindigkeit des Beobachters. Ein Beispiel für diesen Effekt ist das Geräusch einer Krankenwagensirene, wenn sie sich einem Beobachter nähert oder sich von ihm entfernt. Der immer gleiche Ton der Sirene scheint lauter zu sein, wenn sich der Krankenwagen nähert, und leiser, wenn er sich entfernt.
Feldspat: sind kompakte Mineralien, die aus Magma kristallisieren und sich zu vielen Arten metamorpher Gesteine entwickeln. Sie kommen auch in einigen Sedimentgesteinen vor.
Lebendes Fossil: ist die Terminologie für Lebewesen, die auch im Fossilienbestand vorkommen.
Roter Riese: Ein Stern mit einer Leuchtkraft zwischen dem Fünfzig- und Tausendfachen der Leuchtkraft unserer Sonne. Es wird Rot genannt, weil es eine Farbe zwischen gelblich-orange und rötlich-orange hat.
Gneis: Es handelt sich um ein Gestein metamorphen Ursprungs, das durch die Verformung von Granitsedimenten entsteht. Sie gelten als die ältesten Gesteine, die es gibt. Seine Zusammensetzung besteht aus mehreren Mineralien, darunter Feldspat
278
Kalium, Plagiodasium, Quarz und Biotit.
Ichnofossil: oder Überreste von Fossilien sind Abdrücke, die Tiere hinterlassen haben, wie etwa Fußabdrücke, Spuren, Eier, Höhlen, Verstecke, Rückstände und Kot.
Scheinbares Alter: Alter, das einem Objekt zugeordnet ist und vom tatsächlichen Alter abweicht.
Isotope sind Atome eines chemischen Elements, deren Kerne die gleiche Ordnungszahl Z, aber unterschiedliche Atommassen A haben
Makroevolution: qualitative Veränderungen mit der Entstehung neuer Strukturen, die zu vermeintlichen Verbesserungen führen. Beispiel: Ein Fisch entwickelt sich zu einem Amphibientier.
Mikroevolution: Quantitative Veränderungen bestehender Organisationsstrukturen, die zu Variationen und nicht zu Verbesserungen führen. Beispiel: Unterschiede zwischen Hunderassen.
Mikrofossil: ist der Begriff, der von der Wissenschaft der Mikropaläontologie verwendet wird, die Fossilien von Pflanzen und Tieren untersucht, deren Größe für eine Analyse mit bloßem Auge zu klein ist.
Moho: (Mohorovicic-Diskontinuität) ist die Grenze zwischen der Erdkruste und dem Erdmantel, die in Dicke und Abstand von der Oberfläche variiert. Die Entfernung kann am Grund der Ozeane 5 bis 10 km und unter den Kontinenten etwa 35 bis 40 km betragen, unter Gebirgszügen kann sie bis zu 60 km betragen.
Morphologie: Studium der anatomischen Form und Konfiguration von Lebewesen.
Mutationen: minimale und sporadische genetische Veränderungen, im Allgemeinen schädlich oder neutral.
Naturalismus: Kosmovision, die davon ausgeht, dass das Universum und das Leben durch Prozesse der spontanen Erzeugung (ohne schöpferische Handlung) entstanden sind und dass sich beide zu der gegenwärtigen Komplexität entwickelt haben.
Nebel: Formation, die im Verhältnis zur Hintergrundebene des Sterns hell oder dunkel sein kann. Sie werden im Allgemeinen in diffuse (Gase oder kosmischer Staub), planetarische (Gashülle um bestimmte Sterne) und Supernova-Überreste (Material, das bei der Explosion eines Sterns übrig bleibt) eingeteilt.
Neo-Barwinismus: Evolutionstheorie, die die von Darwin vorgeschlagene Theorie der natürlichen Selektion mit der von Gregor Mendel vorgeschlagenen Vererbungstheorie kombiniert. Einige Autoren betrachten den Neodarwinismus und die moderne synthetische Theorie als dieselbe Theorie, die den Wandel beschreibt.
Omathide: eine Ansammlung von Photorezeptorzellen, umgeben von Stützzellen (Pigmentzellen). Der äußere Teil des Ommatidiums enthält eine transparente Schicht, die Hornhaut genannt wird.
Der Allmächtige: der die Macht hat zu tun, was er will.
Der Wissende: der alles weiß.
Paläontologie: Studium der im Fossilienbestand vorkommenden Lebensformen, unabhängig davon, ob sie ausgestorben sind oder nicht.
Permineralisierung: ist der Prozess der Fossilisierung, bei dem poröse Räume, beispielsweise in Muscheln, Holz oder Knochen, mit Mineralien gefüllt werden, die üblicherweise in wässrigen Lösungen transportiert werden.
Versteinerung: ist ein Versteinerungsprozess, der der Permineralisierung und Neupositionierung ähnelt, die normalerweise bei Holz auftritt.
Kontinentalplatten: Riesige Felsen, auf denen die Kontinente liegen.
Pyritisierung: Ersatzversteinerungsprozess, bei dem das ursprüngliche organische Material ersetzt oder mit Pyrit bedeckt wird.
Polypeptide: Kombination aus drei oder mehr Aminosäuren.
Protesnogenik: Beteiligte am Aufbau von Proteinen.
Polyploidie: Verdoppelung oder Vermehrung des in einem „Genpool“ verfügbaren genetischen Materials.
Genpool: Summe aller Gene und Allele einer Population (Tiere oder Pflanzen).
Pseudofossilien: sind visuelle Muster in Gesteinen, die durch geologische Prozesse und nicht durch biologische Prozesse entstanden sind.
280
Radiogen: Element, das aus dem Prozess des radioaktiven Zerfalls entsteht (Blei, Pb ist ein Beispiel für ein radiogenes Element).
Fossilienbestand: ist die Sammlung konservierter Spuren von Tieren, Pflanzen oder anderen Lebewesen durch Fossilisierungsprozesse.
MNA: (Ribonukleinsäure) Ribonukleinsäure, ein kettenförmiges Molekül aus Ribonukleotiden.
MNÂm: Boten-RNA, sie ist der Träger der in einer DNA-Sequenz enthaltenen genetischen Information.
tRNA: Die Transfer-RNA (enthält 74 bis 93 Nukleotide) transportiert eine bestimmte Aminosäure zu der Polypeptidsequenz, die ein Protein bilden wird.
Ersatz: Hierbei handelt es sich um den Prozess der Versteinerung, bei dem das ursprüngliche Strukturmaterial des Organismus entfernt und gleichzeitig Atom für Atom durch ein anderes Mineral ersetzt wird. Dabei bleibt in der Regel die ursprüngliche innere Mikrostruktur erhalten.
Mibosomen: zelluläre Stoffwechselausrüstung, bestehend aus Proteinen und RNA, deren Funktion darin besteht, die mRNA in eine Kette von Aminosäuren zu übersetzen, die zu einem Protein aufgerollt werden.
Metamorpher Mokka: Von der Geologie verwendeter Begriff für jede Art von Gestein (magmatisches, sedimentäres und metamorphes Gestein), das in eine andere Umgebung als die, in der es gebildet wurde, transportiert wurde und unter Einwirkung von Hitze und Druck physikalisch-chemische Umwandlungen erfahren hat.
Mokka-Sediment: Dies sind Gesteine, die durch Sedimentation (Ablagerung von Partikeln, die durch die Erosion anderer Gesteine entstanden sind), durch Ablagerung von Materialien biogenen Ursprungs und durch die Ausfällung von Substanzen in einer Lösung entstehen.
Natürliche Selektion: ist definiert als der Prozess, durch den Organismen mit günstigen Eigenschaften eher überleben und sich vermehren, wodurch solche Eigenschaften in der nächsten Generation häufiger vorkommen. Eine der Folgen der natürlichen Selektion besteht darin, dass dieser langsame, schrittweise Prozess über einen langen Zeitraum hinweg zu Anpassungen und Artbildung führen würde.
281
Taxonomie: von der Biologie verwendetes System, das die Vielfalt der Lebensformen beschreibt, klassifiziert und organisiert.
Planck-Zeit: Zeit, die Licht benötigt, um die Länge einer Saite zu durchlaufen (Planck-Länge), 10'43 Sekunden.
Schöpfungstheorie (TC): Theorie über den Ursprung des Lebens und seine Diversifizierung, über das Universum und seine Struktur, basierend auf Willensannahmen (Planung und Zweck).
Spezielle Schöpfungstheorie (SCT): Theorie über den Ursprung des Lebens und seine Diversifizierung, über das Universum und seine Struktur, basierend auf willentlichen Annahmen (Planung und Zweck) und Eigenschaften, die einem Schöpfer zugeschrieben werden.
Intelligent Design Theory (TDI): wissenschaftliche Theorie, die nach Anzeichen von Intelligenz sucht, die sich in der Struktur des Lebens und der Organisation des Universums zeigen. Designbeweise können Widerspiegelungen einer rationalen und bewussten Intelligenz sein. Die Theorie des intelligenten Designs identifiziert oder berücksichtigt jedoch nicht die Existenz1 eines Designers.
Evolutionstheorie (TE): Theorie über den Ursprung des Lebens und seine Entwicklung basierend auf naturalistischen Annahmen.
Spezielle Evolutionstheorie (SET): naturalistische Theorie über den Ursprung des Lebens und seine Entwicklung durch den Prozess begrenzter biologischer Modifikationen, gesteuert durch natürliche Selektion (Mikroevolution – Intraspezies-Transformismus), ausgehend von einem gemeinsamen Vorfahren.
Allgemeine Evolutionstheorie (TGE): naturalistische Theorie über den Ursprung des Lebens und seine Entwicklung durch den Prozess unbegrenzter biologischer Modifikationen, angetrieben durch natürliche Selektion durch Mutationen (Makroevolution – Interspezies-Transformismus), ausgehend von einem gemeinsamen Vorfahren.
Triplett: Gruppe von drei Nukleotiden, die eine Aminosäure kodieren.
Grundtyp: lebender Organismus, der die gesamte genetische Kodierung enthält, die das Auftreten von Variationen bei seinen Nachkommen ermöglicht.
Torf: Bodenart aus Torf (Holzkohle), die durch die Ablagerung und Zersetzung von Vegetation (insbesondere Sphagnum) entsteht und in der sich Fossilien in gutem Erhaltungszustand befinden.