Wissenschaftswahn Zunächst wurde die BigBang-Theorie - TopicsExpress



          

Wissenschaftswahn Zunächst wurde die BigBang-Theorie (de.wikipedia.org/wiki/The_Big_Bang_Theory) von den meisten Wissenschaftlern abgelehnt. Da sie dachten, das Ganze wäre eine Verschwörung der Kirche, um ihre Schöpfungsgeschichte und damit einen Schöpfer auf wissenschaftliche Wege zu etablieren. Im Laufe der Geschichte kamen aber dann so viele Beweise für eine kontinuierliche Ausdehnung des Universums zusammen, sodass die Bigband-Theorie inzwischen als allgemein anerkannt gilt. Die Idee, dass die Natur auf rein mechanistischen Prinzipien basiert, ist allerdings nur eine Annahme bzw. eine Metapher (de.wikipedia.org/wiki/Metapher). Diese Metapher basiert auf unserer Fixierung, die Welt allein durch eine mechanistische Brille zu betrachten. Es macht allerdings mehr Sinn, die Natur und alle in ihr vorkommenden Organismen als organisch anzusehen. Eine weitere Konsequenz der mechanistischen Weltsicht ist das zweite Dogma (de.wikipedia.org/wiki/Dogma) der Wissenschaft : Materie verfügt über keinerlei Bewusstsein. Verfügt also Materie wirklich über keinerlei Bewusstsein? Decartes (de.wikipedia.org/wiki/Ren%C3%A9_Descartes) und die Begründer der mechanistischen Weltsicht haben Materie von Anfang als ohne Bewusstsein definiert. Bewusstsein wäre also von der Materie getrennt. Nach Decartes Definition existiert Bewusstsein nur im menschlichen Verstand, in Engeln und in Gott. Der ganze Rest der Natur verfügt so über keinerlei Bewusstsein und besteht nur aus toter Materie, die von äußeren Kräften herumgewirbelt wird (trifft so gesehen leider immer noch auf einen Großteil der Menschheit zu! Anm. JS). Das war eine dualistische Weltsicht, die bis ins 19.Jahrhundert dominierte. Im 19.Jahrhundert störte es zunehmend mehr Menschen, das Materie und Geist zwei völlig voneinander getrennte Aspekte wären. Viele Menschen wollten, dass es nur eine einzige, einheitliche Erklärung gibt. Die, die dachten, dass zwei Erklärungen eine zuviel ist, schworen sich darauf ein, dass es nur tote Materie gibt und das der Verstand nur eine Illusion im menschlichen Gehirn darstellt. Oder sie sagten einfach, dass alles nur Bewusstsein ist und das Materie irgendwie aus dem universellen Bewusstsein heraus erzeugt wird. Diese zweite Sichtweise ist vor allem in der östlichen Philosophie populär und wurde in die britische Philosophie durch Bischof Berkeley eingeführt. Diese zwei Sichtweisen von Materialismus bzw. Idealismus (de.wikipedia.org/wiki/Idealismus) sind beide unzulänglich, aber der Materialismus hat sich in der Wissenschaft durchgesetzt. Niemand konnte den menschlichen Verstand vermessen, wiegen oder in ein Reagenzglas füllen. Es wurde deshalb angenommen, das der Verstand einfach nicht existiert und alle Materie ohne Bewusstsein ist. Es stellt sich hier also wieder die Frage, verfügen wir Menschen über Bewusstsein? Wir haben ein Gehirn, also wie kann es sein, das wir über kein Bewusstsein verfügen, wenn es nur aus toter Materie besteht ? In der Philosophie des Geistes nennt man dies das „Hard- Problem“, also das „Schwierige Problem“. Denn das Modell des Bewusstseins passt nicht in das Modell des Materialismus. Materialisten haben alle möglichen Versuche unternommen, Bewusstsein wegzuerklären und als Illusion oder Begleiterscheinung einzustufen. Aber all diese Theorien werden heute nicht einmal mehr von den meisten Materialisten als befriedigende Erklärung angesehen. Die Annahme, das Materie über kein Bewusstsein verfügt, führt also zu ernsten Problemen. Menschen sind nun einmal bewusst, auch Tiere verfügen über Bewusstsein. Obwohl man sich über Letzteres erneut streiten kann. Wie gehen wir also damit weiter um? Einfach nur zu sagen: Bewusstsein wird vom Gehirn erzeugt entspricht dem, was Francis Crick die „erstaunliche Hypothese“ nannte. Es ist die Behauptung, das unser Verstand nur durch physische Gehirnaktivität erzeugt wird und unser Verstand einem genetisch programmiertem Computer entspricht. Dann wären wir, im Grunde genommen, nur Roboter. Nach dieser Sichtweise verfügen wir also über keinerlei freien Willen, denn ein mechanistischer Verstand kann auch keine freien Entscheidungen treffen. Das ist ein unglaublicher Standpunkt und es ist erstaunlich, wie viele intelligente Menschen bereit sind, diesen Standpunkt zu verteidigen. Diese Menschen machen für sich selbst eigenartigerweise immer eine Ausnahme. Sie argumentiere höchst intelligent, das es den freien Willen nicht gibt. Unmittelbar nach der Diskussion jedoch fallen sie auf den Alltagsstandpunkt zurück, das wir alle über einen gewissen Grad an Wahlfreiheit im Leben verfügen. Und das der Verstand nicht allein vom Gehirn erzeugt wird. Einige Philosophen der wissenschaftlichen Lager sind dann auch zu der Schlussfolgerung gelangt, dass ein völliges Abstreiten des freien Willens einfach keinen Sinn macht. Verursacht also Materialismus Panpsychismus (de.wikipedia.org/wiki/Panpsychismus), hat demnach alle Materie auch Bewusstsein ? Tote Materie hätte also auch ein Bewusstsein ? Dies erscheint unmöglich, es sei denn, Elektronen und Elementarteilchen hätten bereits Bewusstsein. Diese Ansicht führte zu großer Entrüstung und Debatte in der materialistisch-atheistischen Philosophie. Die Idee, das aller Materie ein Geist zugrunde liegt, ist allerdings keine neue Idee. Bereites Aristoteles glaubte, dass Materie durch universelle Kategorien geformt wird und das Materie ein Potential darstellt, aus dem alle Lebewesen bestehen. Auch Thomas von Aquin hatte ähnliche Ansichten. Bereits im 17.jahrhundert gab es Widerspruch gegen den von Decartes vertretenen extremen Dualismus. Leibnitz, der Erfinder der Differential- und Integralrechnung und ein Zeitgenosse Isaak Newtons vertrat die Ansicht, das Materie aus Monaden (de.wikipedia.org/wiki/Monadologie) besteht. Diese Monaden vereinen Körper und Geist und jede Monade spiegelt das Universum aus ihrer eigenen Weltsicht. Spinoza verfolgte einen anderen Ansatz, um Körper und Geist zusammenzubringen. Er glaubte, das Körper und Geist zwei verschiedene Aspekte ein und derselben Realität darstellen. Als oberste Ebene sah Spinoza Gott oder die Natur an und alles verfügt über materielle und geistige Aspekte. Kurz nach Decartes bildete sich also im 17.Jahrhundert eine panpsychische Sichtweise heraus, die davon ausging, dass aller Materie ein Geist innewohnt. Im 20.Jahrhundert war Alfred North Whitehead der führende Verfechter dieser Sichtweise, der als Philosoph seiner Zeit um Jahre voraus war. Er vertrat die Ansicht, dass ein Organismus die beste Metapher für die Natur an sich darstellt, denn in der Natur gab es unterschiedliche Schichten von Komplexität. Nach Whitehead sind Elektronen, Atome, Moleküle, Zellen, Gewebe, Organe, Verbindungen von Organen, Ökosysteme, Sonnensysteme und Galaxien lebende Organismen. Sie verfügen alle über materielle und geistige Aspekte. Was materielle und geistige Aspekte unterschied, war weniger eine örtliche Trennung. Einige denken ja, das Geistige ist innen und der Körper ist im Außen. Whitehead sah den Unterschied in einer zeitlichen Trennung und dachte, das alle Organismen über ein Gedächtnis verfügen, das auf ihrer eigenen Vergangenheit und der ihr ähnlichen Systeme basiert. Organismen verfügen aber auch über eine virtuelle Zukunft. Sie verfügen über Ziele und Absichten, in deren Richtung sie sich weiterentwickeln. Das Originelle an Whitehead war, das er zwei unterschiedliche Kausalitätsbeziehungen behauptete. Die bekannte materielle Kausalität wirkt basierend auf der Konditionierung der Vergangenheit auf die Gegenwart. Dann sah Whitehead noch eine geistige Kausalität, die aus der virtuellen Zukunft, ähnlich wie ein Magnet, auf die Gegenwart wirkt. Das Spannungsfeld zwischen Geist und Materie liegt zwischen Vergangenheit und Zukunft, der Geist greift auf einen Raum virtueller Zukunft zu und diese zukünftigen Ziele wirken rückwärts durch die Zeit. Während die reguläre materielle Kausalität entgegengesetzt aus der Vergangenheit in die Zukunft wirkt. Diese beiden Aspekte treffen in unserem Körper und Verstand aufeinander. Der Verstand ist ein Raum von Möglichkeiten. Sobald wir eine dieser Möglichkeiten als Ziel auswählen, z.B. jetzt gerade diesen Text weiterzulesen, dann stellt dies die dann realisierte Möglichkeit dar. Sie können dabei fotografiert werden, gewogen werden. Und die Tatsache, das Sie das hier gerade lesen, ist eine objektive Tatsache. Allerdings war der Raum von Möglichkeiten, indem das alles entstand, nichtmaterieller Natur. Das Gleiche gilt für Elektronen in der Quantenphysik. Wenn man ein Elektron in einem Versuchsaufbau beschreibt, macht man das über eine Wahrscheinlichkeitsverteilung, die alle Möglichkeiten, wo sich das Elektron aufhalten könnte, beschreibt. Man könnte also sagen, das ein Elektron vor sich eine Wolke von Möglichkeiten hat. Eine der Paradoxien (de.wikipedia.org/wiki/Paradoxon) der Quantenphysik ist, wenn das Elektron mit etwas interagiert oder wenn man eine Messung an ihm vornimmt, dann kollabieren all diese Möglichkeiten zu einer einzigen, tatsächlich realisierten Tatsache. Dann befindet sich das Elektron genau an einer bestimmten Position zu einer bestimmten Zeit. Der Raum des Geistes, der die Möglichkeiten und Ziele beinhaltet, ist nichtmaterieller Natur. Der Raum des Geistes wird aber zu einer reellen Tatsache über die Zeitbeziehung. Soll eine Entscheidung getroffen bzw. eine Messung durchgeführt werden, dann entsteht eine objektive materielle Tatsache. Materie ist dann konsistent mit der Vergangenheit. Whitehead stellt mit seiner Theorie eine deutlich bessere Beschreibung der Struktur von Materie und Geist dar. Seine Theorie wird von seinen Anhängern weiter vervollkommnet. Kommen wir zum nächsten Dogma der Wissenschaften, das besagt, dass die Gesamtmenge an Energie und Materie stets konstant ist. Es ist das sogenannte Energieerhaltungsgesetz. Es scheint eines der beständigsten und gesichertsten Gesetze in der Wissenschaft zu sein. Deshalb wurde dieses Gesetz nie richtig hinterfragt. Man konnte sich überhaupt nicht vorstellen, es zu hinterfragen. Denn es ist ja so was von gesichert, sozusagen eine in Gold gegossene ewige Wahrheit. Hinterfragt man es jedoch, stellt sich heraus, das es ebenfalls ein Dogma ist. Ein Dogma, also eine Annahme, sollte demnach einer Überprüfung standhalten und sich als wahr herausstellen. Dann würde diese Gesetz in der Liste von wissenschaftlichen Dogmen als einzigstes wahrhaft gelten. Überprüft man dieses Dogma, stellt sich nun heraus, dass es das wackligste von allen ist und im Grunde ein Kartenhaus darstellt. Wenn man die Historie des Energieerhaltungsgesetzes erforscht, stellt man fest, dass es nicht auf wissenschaftlichen Messungen basiert. Sondern sich auf reinen philosophischen und theologischen Ursprunges gründet. Die Frage nach der Gültigkeit der Konstanz von Gesamtmenge Masse zu Energie wird in unsere heutigen Wissenschaft nicht beantwortet. Nicht, weil diese Frage mit den entsprechenden Nachkommastellen untersucht und gemessen wird, sondern weil man sich diese Frage überhaupt erst stellt. Sie beginnen dabei stets mit der Antwort. Die Antwort stammt aus der griechischen Antike, als das materialistische Weltbild entstand. Atome sind unveränderbare Teichen, deshalb muss auch die Gesamtmenge an Energie und Materie stets konstant sein. Die Atomisten bzw. Materialisten glaubten, das Realität für alle Ewigkeit und aus kleinsten Materieteilchen besteht. Materie stellt also die ewige Realität dar. Als der Materialismus von der modernen Wissenschaft übernommen wurde, wurde auch diese Annahme einfach mit übernommen. Die Begründer der Wissenschaft glaubten damals, dass Gott die Welt erschaffen hat, aber das ab diesem Moment die Gesamtsumme der Atome und Materie konstant blieb. Gott verlieh dem Universum bei seiner Erschaffung auch eine bestimmte Menge an Energie, genauer gesagt, Bewegungsenergie. Denn Gott setzte das Universum quasi in Gang und lies es dann wie ein Uhrwerk laufen. Da diese Bewegungsenergie ein göttliches Geschenk war, das man nicht verändern konnte, musste die Gesamtenergie stets konstant bleiben. Man hat das ganze nicht getestet, es war eben eine Annahme. In den 80iger Jahren wurde klar, dass sich die Bewegungen von Galaxien nicht durch die gängigen Gesetze erklären ließen. Die Sterne in Galaxien sollten sich aufgrund der Gravitationskräfte eigentlich auseinander bewegen. Stattdessen klumpen sich mehr zusammen. Die Gravitation scheint also größer zu sein, als sie eigentlich sein sollte, wenn man die Massen der vorhandenen Sterne und Planeten berücksichtigt. Das ganze System hält also deutlich besser zusammen, als es das tun sollte. Der Gedanke, dass es sich bei Galaxien um Organismen handeln könnte, die eine Tendenz zum Zusammenhalt haben, kommt dabei niemanden in den Sinn. Das Phänomen musste also allein durch Gravitationskräfte erklärt werden. Da es zuwenig Gravitation gab, hat man dann einfach welche dazu erfunden. Die Wissenschafter erfanden so die Dunkle Materie (de.wikipedia.org/wiki/Dunkle_Materie) um die Physik von Galaxien zu erklären. Die Wissenschafter definierten jetzt einfach soviel Dunkle Materie, damit ihre die Gleichungen stimmten. Wenn man sie fragt, was Dunkle Materie denn eigentlich sei, dann hat niemand eine Antwort darauf. Es gibt zwar viele Veröffentlichungen und Vorträge darüber, aber es fehlt die wissenschaftlicher Übereinstimmung. Man ist sich unter Physikern jedoch inzwischen einig, das es mindestens fünf mal mehr Dunkle Materie gibt, als uns bisher bekannter Materie. Niemand sagt aber dabei: „Halt, wir können doch nicht diese ganze Dunkle Materie aus dem Nichts heraus erfinden! Denn es gibt doch das Gesetz zum Erhalt der Gesamtenergie !“ An diesem Widersprich hat sich niemand jedoch niemand gestört und die Menge Dunkle Materie wird beliebig geändert, je nachdem, wie man gerade braucht, damit die Gleichungen für die beobachteten Galaxien aufgingen. Man bräuchte die ganze Dunkle Materie nicht, wenn man das Gravitationsgesetz anpassen würde. Dadurch würde es mit einem Schlag alle Dunkle Materie nicht mehr geben. Also wie ernst sollten wir das Gesetz zum Erhalt der Gesamtmenge an Materie eigentlich nehmen, wenn man jederzeit beliebig viel Materie dazuerfinden darf ? Das Gleiche gilt auch für den Energieerhaltungssatz. Seit dem Jahr 2000 weiß man, dass sich das Universum eigentlich zu schnell ausdehnt. Mit der ganzen, dazuerfundenen Dunkle Materie hätte die Ausdehnung des Universums eigentlich langsamer verlaufen müssen. Bis dahin hatte man angenommen, die ganze Ausdehnung des Universums würde sich immer mehr abbremsen und irgendwann stoppen. Und ab da würde es wieder schrumpfen bis zur Umkehrung des BigBang , des BigBrunch (de.wikipedia.org/wiki/Big_Crunch), wieder enden würde. Schließlich würde alles in einem dunklen Loch verschwinden. Als man Ende der 90iger Jahre herausfand, das sich die Ausdehnung des Universums wesentlich beschleunigt, hat man diese Theorie dann wieder verworfen. Das führte dann zur Erfindung der Dunklen Energie (de.wikipedia.org/wiki/Dunkle_Energie) , die die Aufgabe hätte, das Universum auseinander zu schieben. Die Gleichungen, die von den meisten Physikern zur Beschreibung dieser Dunklen Energie verwendet werden, besagen, dass die Energiedichte im gesamten Universum konstant ist. Energiedichte bedeutet Energie pro Volumeneinheit. Wenn die Energiedichte jedoch konstant ist und sich das Universum ausdehnt, dann muss auch die Energie im Universum kontinuierlich zunehmen. Das Universum erzeugt also neue Energie während es sich ausdehnt. Das Universum ist also demnach ein Perpetuum Mobile (de.wikipedia.org/wiki/Perpetuum_Mobile). Inzwischen sind Physiker zu dem Schluss gekommen, dass 96 % des Universums aus Dunklen Energie und Materie besteht und dass Materie, so wie wir sie kennen, nur 4 % des Universums ausmachen. Wie können Wissenschaftler da behaupten, dass die Gesamtmenge von Energie und Materie konstant bleibt ? Wir wissen ja auch nicht, ob vielleicht Dunkle Materie und Energie in „normale“ Materie und Energie umgewandelt werden kann. Vielleicht ist auch eine Umwandlung in die andere Richtung möglich? Wenn Menschen dann zu Tausenden mit sogenannten „Neuen Energietechnologien“ kommen und behaupten, „freie Energiemaschinen“ erfunden zu haben, so begegnet man ihnen immer noch mit Hohn und Spott. Denn das älteste Tabu in der Wissenschaft ist, das es nun mal kein Perpetuum Mobile geben kann. Die vielen Menschen, die inzwischen mit solchen Erfindungen kommen, die Energie aus dem „Nichts“ erzeugen. Viele behaupten, dass sie die bereits als Begriffe definierte Vakuum- oder Nullpunktenergie (de.wikipedia.org/wiki/Vakuumenergie) in nutzbare Energie umwandeln. Diese Technologien würden die ganze Welt verändern, wenn man sie in großen Stil einsetzen würde. Viele Erfinder behaupten, dass sie über funktionierende Prototypen verfügen, Sobald diese Erfinder Kontakt zu großen Investoren suchen, rufen die ihre wissenschaftlichen Berater und die sagen: „Finger weg, das ist nichts anderes als ein Perpetuum Mobile und die Erfinder müssen Spinner sein und das Ganze hat einen Haken!“ Trotz allem gibt es einen Italiener Andrea Rossi, der ein solches Gerät hat und bereits einige Geräte verkauft hat. Man munkelt, der Käufer ist das US-Verteidigungsministerium. Diese Geräte funktionieren also definitiv. Warum setzen Privatinvestoren nicht eine hohe Prämie aus? Die Erfindung wird untersucht und würde die Funktionalität beweisen oder auch nicht ? Funktioniert keines der Geräte, könnten die Materialisten dann zu Recht sagen: „Ja, das haben wir Euch doch schon immer gesagt!“. Sie hätten dann echte Beweise vorliegen, statt weiter ihre Sichtweise nur als Annahme in den Raum zu stellen. Sie sollten solch eine Initiative eigentlich wirklich begrüßen. Noch schockierender wird das Ganze, wenn man die Energie lebendiger Organismen untersucht Seit dem 19. Jahrhundert wird angenommen, das der Energieerhaltungssatz auch für lebendige Organismen gilt und das es die Lebensenergie, das Chi oder Prana, nicht wirklich gibt. Lebensenergie wird nur als abstruses Konzept angesehen, das keinerlei Bezug zur wirklichen Energie hat, wie sie durch die Physik definiert wird. Heute sehen Wissenschaftler das zwar genau so, aber im 19. Jahrhundert gab es darüber eine Kontroverse. Vertreter des Vitalismus (de.wikipedia.org/wiki/Vitalismus) argumentierten, das lebendige Organismen Zugriff auf eine Lebensenergie haben, die sich von normaler Energie unterscheidet. Hermann von Helmholtz, ein bekannter Mediziner, wollte diesen Vitalismus widerlegen. Er wollte klar zeigen, das die einzige zulässige Sichtweise darin besteht, lebendige Organismen als nichts anderes als Maschinen zu betrachten. Dabei störte die Lebensenergie. Zunächst versuchte er dies durch Experimente mit Froschschenkel zu beweisen, die er durch Stromschläge anregte, um die Energiebilanz der Wärme und Arbeit zu vergleichen. Das hat nicht funktioniert. Deshalb bewies er es dann durch reine Theorie, statt durch Experimente. Er sagte: angenommen, lebendige Organismen sind Maschinen, dann gilt ja auch der Energieerhaltungssatz für sie. Er folgerte also durch theoretische Schlüsse, das seine Annahme korrekt sein muss. Von diesem Zeitpunkt an wurde seine Annahme zum Dogma in der Biologie und bis 1899 nie beim Menschen überprüft. Die erste Studie dazu wurde von Edwarder und Benedikt dazu durchgeführt. Hinterfragt man das Dogma, wird man stets auf ihre Kalorimetermessungen verwiesen, die das Dogma angeblich beim Menschen beweisen. Edwarder und Benedikt schrieben in ihrer Veröffentlichung dazu folgendes: Niemand würde die Gültigkeit des Gesetzes zum Erhalt der Gesamtmasse lebendiger Organismen anzweifeln. Daher dürfte es auch als ähnlich gesichert angesehen werden, das auch der Energieerhaltungssatz für lebendige Organismen zutrifft. Trotzdem wäre ein quantitativer Beweis dazu wünschenswert. Der Tenor ist also: Wir kennen ja schon die Antwort und jetzt liefern wir auch noch den Beweis. Für diesen Beweis befanden sich Menschen in einer verschlossenen Kiste und über ein Kalorimeter wurde die Energiebilanz gemessen. Man maß sie Temperatur, den verbrauchten Sauerstoff, die aufgenommene Nahrung und die Ausscheidungen der Versuchspersonen. Leider kamen sie dabei zu unerwünschten Ergebnissen. Deshalb änderten sie kurzerhand den Umrechnungsfaktor für den Kaloriengehalt der Nahrung. Nach dieser Anpassung stellten sie erneut fest, dass einige Testpersonen, die fasteten, mehr Energie abgaben. Andere, die mehr aßen, gaben weniger Energie ab, als erwartet wurde. Es gab also richtige Diskrepanzen. Was machten sie also? Sie bildeten den Mittelwert der Testpersonen, die zuviel und zuwenig aßen. Und schon hatte alles gepasst (so funktioniert halt „Wissenschaft“ meist noch. Anm. JS). Diese Anpassung der Vorbedingungen an das Ergebnis findet man heute in allen Lehrbüchern als den ultimativen Beweis für die Unrichtigkeit des Vitalismus. Erst in den 70iger Jahren untersuchte Paul Webb, ein Ernährungswissenschaftler, die Thematik erneut und fand Abweichungen von bis zu 25% in der Energiebilanz, speziell bei den Testpersonen, die fasteten. Bei ihnen wurde stets mehr Energie gemessen, als vorhanden sein müsste. Webb versuchte, seine Forschungsergebnisse in der amerikanischen Ernährungswissenschaft bekannt zu machen, seine Ergebnissen wurden auch in der Fachpresse publiziert. Aber niemand interessierte sich für seine Entdeckungen, weil es ja feststand, das der Energieerhaltungssatz auch für lebendige Organismen gilt. Immer, wenn jemand daher kam und über Prana und Chi redete, wussten alle, dass er Blödsinn von sich gab. Denn lebendige Organismen sind ja nur Maschinen. Wissenschaftler, die sich näher mit dem Prana und Chi beschäftigen, werden sehr schnell erkennen, das es sich um ein Dogma handelt. Das ist der Stand der Dinge hinsichtlich dieses Dogmas. Das nächste Dogma besagt, die Naturgesetze und ihre Naturkonstanten sind unveränderlich. Sie wurden zur Zeit des BigBang festgelegt und haben sich seitdem nicht verändert. Es gibt allerdings eine Debatte darüber, warum beim BigBang die Naturkonstanten genauso gewählt wurden. Denn sie sind exakt so aufeinander abgestimmt, dass sie die Bedingungen erfüllen, die für die Entstehung von Leben und uns Menschen ermöglicht. Das Ganze nennt sich das kosmologische anthropische Prinzip ( de.wikipedia.org/wiki/Anthropisches_Prinzip). Eine Denkschule vertritt die Meinung, das dies den Beweis für einen Schöpfergott darstellt, der die Konstanten vor dem BigBang aufeinander abgestimmt hat und der dann den Startknopf gedrückt hat. Also eine Form von Neo-Deismus (de.wikipedia.org/wiki/Deismus). Die Denkschule, die sich in der Wissenschaft jedoch durchgesetzt hat, ist die, dass es Billiarden von Universen gibt und wir sind zufällig in dem teil gelandet, wo die Abstimmung der Naturkonstanten die Entwicklung von Leben ermöglicht hat. Wenn man Kosmologen fragt, wie könnt ihr annehmen, dass es Billiarden von Universen gibt, für die wir nicht den geringsten Beweis haben ? Dann antworten sie einfach: „ Das ist doch die ökonomischste Hypothese !“ Das ist im Grunde jedoch die ultimative Verletzung des geltenden Ökonomieprinzips, das besagt, dass stets die sparsamste Lösung angestrebt wird. So wird man Gott endlich los. Man ist also bereit, Billiarden von Universen in Kauf zu nehmen, um Gott los zu werden. Aber Theologen haben schon darauf hingewiesen, dass wir Gott dadurch nicht los werden. Denn ein allmächtiger Gott kann auch Billiarden von Universen geschaffen haben. Trotzdem ist die multiverse Theorie zur Zeit in der Wissenschaft akzeptiert, obwohl es dafür nicht den geringsten Beweis gibt. Damit umgeht man nur elegant die Fragestellung, wie alle Naturkonstanten zum Zeitpunkt des BigBang auf eine so lebensförderliche Weise festgelegt wurden. Aber es gibt eben keine Beweise, das sich die Naturkonstanten seit dem BigBang nicht verändert haben. Das ist nur eine Annahme. Wieso sollte sich in einem sich entwickelnden Universum nicht auch die Naturgesetze weiter entwickeln ? Sind Naturgesetze nicht eher so etwas, wie Gewohnheiten? Sehen wir uns die zwei in Gold gegossene Naturkonstanten Lichtgeschwindigkeit und Gravitation einmal näher an. Sieht man sich die Verfahren zur Messung dieser zwei Konstanten einmal näher an, dann sind sie keineswegs konstant. Zwischen den Jahren 1928 und 1945 verringerte sich die Lichtgeschwindigkeit auf der ganzen Welt um ca. 20 km/Sekunde. Unterschiedliche Forschungseinrichtungen auf der ganzen Welt konnten in dieser Zeit die Lichtgeschwindigkeit mit geringer Fehlertoleranz messen. Nach 1945 stieg dann die gemessene Lichtgeschwindigkeit wieder auf ihren ursprünglichen Wert an. Auf die Frage an die Leiter der Forschungseinrichtungen zu diesem Sachverhalt ergab folgende Antwort: „ Die Lichtgeschwindigkeit kann sich nicht verändern, sie ist ja eine Konstante!“ . Auf die Frage, ob dann die Messdaten zwischen 1928 und 1945 frisiert wurden, kommt die Antwort: „ Das Wort Frisieren benutzen wir in diesem Fall nicht, wir bevorzugen hier, dass eine intellektuelle Phasenverriegelung vorlag!“. Hinter vorgehaltener Hand wird also auf die peinlichste Sache der Wissenschaftsgeschichte hingewiesen. Man will sicherstellen, dass so etwas nie wieder vorkommen wird ! Die Lichtgeschwindigkeit wurde dann im Jahre 1972 durch ein internationales Komitee festgelegt. Man definierte einen Meter als abgeleitete Größe der Lichtgeschwindigkeit, wenn sie sich verändert, verändert sich automatisch die Länge eines Meters. Und so hat man ein geschlossenes System erzeugt. Im Falle der Gravitationskonstanten gab es noch erstaunlichere Abweichungen. Allein in den letzten Jahren hat die Gravitationskonstante um 1,5 % geschwankt. Die Messungen wurden von den besten Forschungslaboren dieser Welt durchgeführt. Normalerweise werden nicht die genauen Messdaten publiziert, sondern nur deren Mittelwert. Unterschiedliche Labore kommen also zu unterschiedlichen Messwerten und bilden daraus jeweils einen Mittelwert, um dann den finalen Wert der Gravitationskonstanten festzulegen. Es gibt also permanent korrigierte Werte für die Gravitationskonstante, die in einer englischen wissenschaftlichen Zeitschrift abgedruckt werden. In einer amerikanischen Messlabor schwankte die Gravitationskonstante innerhalb eines einzigen Tages um 1,5 %. Was wäre, wenn sich die Gravitationskonstante wirklich permant verändert? Sie könnte ja abhängig sein von der Jahreszeit, der Position der Erde zur Sonne. Falls die Dunkle Materie existiert, und die Erde durch Wolken Dunkler Materie fliegt, könnte sich das auf die Gravitationskonstante auswirken. Selbst in der bestehenden Physik gibt es Gründe anzunehmen, dass die Gravitationskonstante keine konstante Größe ist. Aber diese Gedanken werden sofort von der Mehrheit der Physiker abgelehnt, den die Gravitationskonstante ist nun mal ein KONSTANTE ! Koordinierte Messungen überall auf der Welt würden vielleicht unser Wissen über die Gravitationskonstante verbessern, es wurde aber noch nicht angeregt. So behindern Dogmen unnötigerweise die wissenschaftliche Forschung. Es stellt sich die Frage; ist die Natur ohne Ziel und Absicht. Die Annahme, dass die Natur keine Ziele verfolgt, ist nur eine Annahme, die aus der Herausnahme von Ziel und Absicht aus der Natur entstand. Dies würde zu einer Zuordnung eines menschlichen und eines göttlichen Verstandes führen. Wenn wir das verhalten von Tieren und Pflanzen beobachten, dann verfolgen sie offensichtlich Ziele, genauso wie wir Menschen. Wenn die Natur keine Ziele verfolgen würde, wieso sollten wir Menschen dann Ziele verfolgen ? Es handelt sich hierbei erneut um eine Annahme und sie trifft weder auf Tiere noch auf Pflanzen zu. In wissenschaftlichen Modellen nivelliert man Tiere und Pflanzen über sogenannte Attraktoren (de.wikipedia.org/wiki/Attraktor), einen Begriff aus der Dynamik (de.wikipedia.org/wiki/Dynamik_%28Physik%29) , der beschreibt, wie sich natürliche Systeme auf einen Endzustand hin bewegen. Die Wissenschaft hat im Grunde die Theologie mit einem neuen Namen ersetzt und das Ganze Attraktor genannt. In der Biologie hat man die Zielgerichtetheit lebendiger Organismen neu erfunden. Indem man sagt, sie verfügen über genetische Programme niederer Instinkte. Die Spinne verfügt also über ein genetisches Programm ihre Netze aufzubauen, um damit Nahrung zu fangen. Ein Computerprogramm ist ein von Menschen gemachtes Programm mit einem Ziel und unter diesem Begriff schmuggelt man die Zielgerichtetheit wieder in die Biologie ein. Man spricht von egoistischen Genen (de.wikipedia.org/wiki/Das_egoistische_Gen) , aber Gene sind Moleküle und diese können nicht egoistisch sein. Oder Begierden entwickeln und sich wie Gangster verhalten. Das sind alles Projektionen und unzulässige Metaphern. Das Problem moderner Biologie ist nicht, das sie mechanistisch ist, sondern das sie krypto-vitalistisch ist. Sie unterstellt eingeschmuggelte Absichten, streitet sie dann aber ab. Wenn wir die Evolution betrachten, dann gehen wir davon aus, dass sie rein auf Zufallsprozessen basiert und nur durch natürliche Selektion (de.wikipedia.org/wiki/Selektion_%28Evolution%29) vorangetrieben wird. Auch dies ist nur eine Annahme, für die es keinerlei Beweise gibt und geben wird. Ob die Evolution eine Ziel verfolgt, bleibt also eine offene Frage.
Posted on: Wed, 04 Dec 2013 21:37:00 +0000

Trending Topics



Recently Viewed Topics




© 2015