K. F. Meis (© 2002-2021)

Intelligent Design
Ein Modell zum Nachweis von Design und Teleologie in der Natur

Hauptmenü
 Startseite
 Sitemap

Artikel
 Was ist Intelligent Design?
 Wahrscheinlichkeitsrechnung
 Makromolekül-Entstehung
 Kritik an Intelligent Design
 Richtigstellungen
 Offene Briefe / Leserbriefe
 Rezensionen

Downloads
 Mendel-Simulator
 PDF

Cartoons
 Wurm-Trilogie
 Die wissenschaftl. Erklärung
 Rudi die Ratte
 Moderne Kriminologie

Sonstiges
 Zu meiner Person
 Empfehlenswerte Links
 Kontakt
 Copyright




(Counter by http://www.digits.net/)
<< Vorhergehendes Kapitel Übersicht Nächstes Kapitel >>

Verteidigung der Wahrscheinlichkeitsrechnung - Teil 2

Widerlegung der Einwände gegen die Anwendbarkeit der Wahrscheinlichkeitsrechnung auf die Evolutionstheorie


Das veränderte Würfelbeispiel

Würfel

M. Neukamm: Man denke sich beispielsweise einen Spieler, vor dem hundert Würfel ausgebreitet auf einem Tisch lägen. Nun bekäme er die Aufgabe, der Reihe nach solange mit jedem Würfel zu würfeln, bis er eine gerade Zahl erhielte und diesen Vorgang solange zu wiederholen, bis alle hundert Würfel eine gerade Augenzahl zeigen. Nachdem er schrittweise alle ungeraden Zahlen ausselektiert und die Zahlenreihe auf ein Blatt Papier geschrieben hat, läßt sich feststellen, daß die Wahrscheinlichkeit, die realisierte Zahlensequenz zu bekommen (1/6)100, also "fast Null" beträgt. Der Auffassung des Evolutionsgegners entsprechend muß nun der Schluß gezogen werden, daß die Entstehung solcher Zahlenreihen "außerhalb des Bereichs der Wahrscheinlichkeit der sich auf unserer Erde abspielenden Zufallsprozesse" liege.

Dieses Würfelbeispiel des Herrn Neukamm stellt die veränderte Variante seines ursprünglichen Würfelbeispiels dar. Es war nach dem Beispiel von Richard Dawkins (METHINKS IT IS LIKE A WEASEL) das zweite Mal, dass ich so richtig herzlich lachen konnte! Ich hoffe, Herr Neukamm nimmt mir das nicht für übel, aber, wenn man schon vorher weiß, was am Ende herauskommen soll (nämlich nur gerade Zahlen), dann kann eine intelligente Person natürlich entsprechend selektieren. Würde der Leser eine solche Zahlenreihe sehen, wäre ihm wohl sofort klar: Das ist das Ergebnis eines Algorithmus, und hinter einem Algorithmus steckt Intelligenz. Aber woher soll eine angenommene Selektion schon während des Aufbaus einer Struktur gewusst haben, wie diese aufgebaut werden muss, damit am Ende eine tauglichere Struktur herauskommt? Hier wird der Selektion Intelligenz unterstellt. Das Beispiel unterscheidet sich somit in der Grundannahme nicht von Richard Dawkins' kuriosem Beispiel. Auch er ging von einer intelligenten Selektion aus. Mich beschleicht das Gefühl, dass offenbar auch Evolutionstheoretiker nicht ganz ohne Intelligenz als Erklärung für Design auskommen!

Der Unterschied zwischen beiden Beispielen besteht darin, dass Richard Dawkins bei seinem Beispiel die Anzahl der Variationen auf Eins zusammenschrumpfte (entsprechend komplex ist der notwendige Algorithmus - die Wahrscheinlichkeit, dass das eine gewünschte Ergebnis am Ende herauskommt, beträgt 100%) und Herr Neukamm einen sehr simplen Algorithmus (If Zahl And 1 = 0 Then Gerade = True) zuhilfe nimmt, diese Einfachheit aber mit 5,15 · 1047 Variationen erkauft (Auch bei ihm beträgt die Wahrscheinlichkeit des Erreichens einer dieser 5,15 · 1047 Varianten 100%). So kommt es, dass Herr Neukamms Algorithmus keine Information mehr erzeugen kann (kann Richard Dawkins Beispiel ja eigentlich auch nicht - die Information muss ja in den Algorithmus einprogrammiert werden), sondern nur noch eine gewisse Ordnung liefert (z.B.: 2 - 6 - 4 - 4 - 2 - 2 - 6 - 2 - 6 - 4 - 2).

Jeder Mensch weiß aus Erfahrung, dass eine geordnete Struktur (und sei sie noch so rudimentär wie dieses Even-Odd-Beispiel, das sich wohl kaum noch vereinfachen lässt) eine ordnende Kraft (Gesetzmäßigkeit, z.B. ein Algorithmus) voraussetzt und jede Information eine kreative Kraft (Intelligenz). Die Selektion kennt natürlich keine Funktion wie If Zahl And 1 = 0 Then Gerade = True. Bei der Selektion geht es nur um eine einzige Zielsetzung: Alle untauglichen Lebewesen am Überleben hindern. Der Leser wird bemerkt haben, dass die Selektion nur greifen kann, wenn herausgefunden werden kann, ob eine schlechtere Tauglichkeit vorhanden ist. Dies kann man weder auf die einzelne Aminosäure noch auf ein einzelnes Nukleotid-Paar anwenden.

Außerdem ist mehr als ein geordneter Zustand nötig - am Ende soll eine Information entstehen! (Einzelheiten siehe: Ordnung ist nicht gleich Information). Man kann somit beim Aufbau einer DNS-Sequenz nicht für jedes Nukleotid-Paar feststellen, ob dieses tauglich ist - dazu müsste man ja wissen, welcher Aufbau am Ende herauskommen soll. Es ist die fertige Sequenz die funktional sein muss, nicht das Einzelteil. So wie die Frage, ob der Buchstabe "u" richtig ist, nicht beantwortet werden kann, wenn man ihn nicht im Kontext betrachtet, so kann man dies auch nicht für einen isolierten genetischen Buchstaben. Adenin ist nicht tauglicher oder untauglicher als Cytosin. Die Selektion kann unmöglich wissen, welche genetischen Buchstaben akzeptiert und welche abgelehnt werden müssen, damit am Ende eine sinnvolle und damit funktionale Sequenz herauskommt. Erst ein gesamter Organismus kann ausselektiert werden.

M. Neukamm: Dieses Beispiel macht zweierlei deutlich: Erstens illustriert es anschaulich, daß man praktisch jedes Ereignis beliebig unwahrscheinlich rechnen und als nichrealisierbar ausgeben könnte. Tatsächlich lassen sich jedoch fast beliebig viele - wenn auch jedesmal verschiedene, niemals wieder dieselben - gleich unwahrscheinlichen Zahlenfolgen erwürfeln.

Das ist eine verdrehte Argumentation, wie sie mir bereits bei dem Dachziegelbeispiel begegnet ist. Jede Zahl beim Lotto hat die gleichen Gewinnchancen. Diese kann man mit 6 über 49 errechnen. Wenn die Lottozahl gezogen ist, so ist die Aussage: "Ich dachte, es ist fast unmöglich, diese Zahl zu ziehen, und doch wurde sie gezogen" geradezu grotesk. Natürlich zieht die Lottofee jede Woche die "richtige" Zahl. Nur, Lottozahlen enthalten doch keine Information. Aus einer Kiste mit Buchstaben eine Buchstabenfolge zu ziehen, die einen Sinn ergibt, das ist extrem gering. Die Chance irgendeine Buchstabenfolge zu ziehen ist natürlich 1:1. Dieses Axiom bedarf keiner Erklärung durch ein Beispiel.

M. Neukamm: Die Unwahrscheinlichkeit jeder einzelnen Konfiguration wird durch eine immens große Zahl an alternativen (potentiellen) Konfigurationsmöglichkeiten aufgewogen. (*)

Dies ist falsch! Die Anzahl sinnvoller informationstragender Sequenzen steht in keinem Verhältnis zu allen nur erdenklichen alternativen sinnlosen Sequenzfolgen. Von "aufgewogen" kann keine Rede sein.

Um die Selektion richtig in dieses Würfelbeispiel zu integrieren, könnte es ungefähr so aussehen: Jemand würfelt eine Zahl und schreibt sie auf. Wenn es sich um eine ungerade Zahl handelt, so wird seine Sequenz verworfen und er muss ein neues Blatt nehmen, um von vorne zu beginnen. Wie lange wird es dauern, bis er 100 gerade Zahlen auf dem Blatt stehen hat? Wenn er es schafft, jede Sekunde einmal zu würfeln (die ungeraden Zahlen lassen wir dabei unberücksichtigt) benötigte eine Person das 3.631.669.772.337.866.642.965.084.910.125fache Erdzeitalter (angesetzt mit 4,5 Mrd. Jahren), um hundert gerade Zahlen auf seinem Blatt stehen zu haben. Dabei hat er noch keine Information erzeugt, sondern nur eine gewisse rudimentäre Ordnung. (Einzelheiten siehe: Ordnung ist nicht gleich Information). Eine Selektion kann beispielsweise ein kettenabschließendes Molekül nicht daran hindern, eine Molekülkette abzuschließen. Es müsste in diesem Fall die unvollständige Kette verworfen und von Vorne begonnen werden.

Diese für Evolutionstheoretiker äußert unangenehme Tatsache verleitet diese nun zu der Annahme, unbekannte Mechanismen, und eben nicht der Zufall, seien für den Aufbau komplexer Strukturen verantwortlich. Recht haben sie: Der ihnen unbekannte Mechanismus heißt: Intelligenz!

M. Neukamm: Zweitens wird gezeigt, daß sich im Rahmen selektionsgesteuerter Prozesse auch "informationstragende" Strukturen mit einer vergleichsweise geringen Zahl an Versuchen erzeugen lassen. In Analogie zu dem Würfelbeispiel "spielt" die Evolution gewissermaßen mit den Nucleotidbasen und Genen immer nur solange, bis irgendeine (!) beliebige adaptive Veränderung stattfindet, die positiv selektioniert und fixiert wird. Es steht dabei weder im Voraus fest, was geschaffen werden soll, noch daß Funktionalität völlig zufallsgesteuert oder gar in einem Schritt entstehen muß. An das jeweils Erreichte schließen sich weitere solcher Schritte an. Damit erreicht der Organismus stufenweise eine größere, spezifische Komplexität (und rückblickend auch einen "unwahrscheinlicheren" Zustand).

Auf die Gefahr hin, mich zu wiederholen: Selektion kann nicht greifen, wenn es keine Reproduktion gibt (siehe auch Richtigstellung: Definition des Begriffes Selektion). Der Aufbau der ersten Lebensform, die sich reproduzieren konnte, hätte ohne Selektion auskommen müssen. Es kann nichts fixiert werden, was sich nicht irgendwie vermehren kann. Es müssen im ersten Lebewesen nicht nur alle notwendigen, funktionierenden, interagierenden Proteine entstanden sein, sondern auch noch gleichzeitig deren exaktes Abbild im genetischen Code. Dann muss eine Kopierfunktion vorhanden gewesen sein, die mit nahezu 100%iger Genauigkeit diesen Code reproduzieren kann, damit das einmal erreichte nicht sofort wieder zerfällt. Wenn Herr Neukamm also von "Nucleotidbasen und Genen" spricht, dann setzt er bereits ein funktionsfähiges Lebewesen voraus. Klaus Wittlich betrachtete die Entstehung eines Bestandteils eines solchen Lebewesens, nicht dessen Veränderung.

M. Neukamm: SCHNEIDER hat in Simulationsversuchen genau das gezeigt: "Complex specified information", die von Evolutionsgegnern wie beispielsweise DEMBSKI für einen Beweis eines "intelligenten Designs" gehalten werden, läßt sich in solchen zweistufigen Prozessen völlig planlos generieren. Wie konnte er einen Zufallsgenerator dazu bringen, durch planlose Aneinanderreihung von Buchstaben "complex specified information" zu erzeugen? Die Antwort gibt SCHNEIDER:

"By mutation (non directed, can't be intelligent) replication (non-directed, can't be intelligent) and selection (ahh ha!) (...) So what's going on? Living things themselves create "specified complexity" via environmental selections and mutations. Living things and their environment are the "intelligent designer"! So what was Dembski's mistake? It was that he proposed that the design by necessity had to come from outside the living things, whereas it comes from within them and between the organism and its environment!" (SCHNEIDER, 2002)

"Living things themselves create 'specified complexity'". Bis hierher ist das die Aussage von Intelligent-Design-Theoretikern. "via environmental selections and mutations" ist die Erklärung von Evolutionstheoretikern.

"Living things and their environment are the 'intelligent designer'"! Das ist unsinnig, da immer noch nicht beantwortet ist, wo denn die "living things" herkommen. Schneider setzt lebende Organismen einfach als gegeben voraus und argumentiert, dass diese lebenden Dinge sich dann selbst weiter designed hätten. Wie bildete sich aber das erste "living thing" aus dem Leblosen? Selektion kann nur fertige Systeme verschonen.

Ein typisches Beispiel für Selektion in der Computerindustrie sind Roboter, die nach der Fertigung die Computerschaltkreise auf der Siliciumscheibe einer Funktionsprüfung unterziehen. Nicht funktionsfähige Chips werden markiert und anschließend ausselektiert. Fragt nun jemand: "Wie entstehen funktionsfähige Computerchips", so wird ihm die Antwort: "Diese werden nicht ausselektiert" wohl kaum befriedigen. Oder wie jemand es mal formulierte: "Wie kommen Blätter an die Bäume? Dadurch, dass der Gärtner sie nicht abgeschnitten hat".

M. Neukamm: Im Hinblick auf die komplexen Genwechselwirkungen ist jedoch ein weiterer Faktor zu berücksichtigen, dessen Nichtbeachtung von Evolutionsgegnern in ein Argument gegen die Wahrscheinlichkeit transspezifischer Evolution gemünzt wird: Um alle Teilorgane zu einem komplizierten Baupläne zusammenzufügen, müssen - so der Einwand - mitunter dutzende oder gar hunderte von Genen derart miteinander verwoben und aufeinander abgestimmt sein, daß sie ein kompliziertes System aus Genwechselwirkungen (ein "epigenetisches System") bilden. Es steht daher die Frage im Raume, wie infolge der Synorganisation, also der Verschaltung vieler Gene zu einem funktionellen Ganzen überhaupt noch sinnvolle Mutationen zustandekommen können, die gleichsam dem ganzen System einen Vorteil bescheren und positiv selektioniert werden. Es läßt sich zeigen, daß die "Verschaltung" vieler einzelner Module (oder Gene) zu vermehrter Notwendigkeit, viele passende Mutationen zusammenzubekommen (letztlich also zu einer sinkenden Zahl an Anpassungsmöglichkeiten) führt.

Die eingangs erwähnten Autoren Junker und Scherer haben dieses Problem sehr anschaulich (wenn auch sehr stark zugunsten der Evolutionstheorie simplifiziert) am Beispiel eines Bakterienmotors veranschaulicht. Bei der Entstehung eines ersten reproduzierfähigen Lebewesens ist allerdings eine extreme Synorganisation gefordert, die, was ihre Komplexität angeht, nicht mehr zu überblicken ist. Alles, was zum Leben notwendig ist, musste gleichzeitig und am gleichen Ort entstehen und zu leben beginnen.

M. Neukamm: "Manche Apparate können durch sukzessive kleine Schritte entstehen: eine Stelle der Haut mit Lichtsinneszellen kann durch Pigmenthäufung zu einem Augenfleck werden. In einem zweiten Schritt wird der Augenfleck zu einem Napfauge, aber dieser zweite Schritt kann nicht richtungslos an einer beliebigen Stelle erfolgen, sondern ist an den Ort des Augenflecks gebunden. Dadurch wird die Wahrscheinlichkeit einer Weiterentwicklung zu einem Auge stark herabgesetzt, und das ist bei jedem weiteren Schritt der Fall, so daß die Wahrscheinlichkeit einer solchen Entwicklung äußerst gering wird." (REMANE et al., 1973, S. 160 f.)

Ich möchte an dieser Stelle noch einmal darauf aufmerksam machen, dass alle vorangehenden und alle nachfolgenden Absätze von bereits lebensfähigen Organismen ausgehen, um deren schrittweise Veränderung irgendwie mithilfe verschiedenster Hypothesen zu erklären. Die Entstehung dieser Organismen wird dabei nicht berücksichtigt, stellt jedoch die Kernfrage dar.

M. Neukamm: Wie also sind solche Kopplungen sowie die kooperativen, schrittweisen Umbauten ganzer Baupläne zu bewerkstelligen? Eine mögliche Antwort auf diese Frage liefern moderne Systemtheorien, die insbesondere von RIEDL ausgearbeitet wurden. In diesem Modell werden sukzessive Strukturgene unter ein Regulatorgen verschaltet. Beginnt man also mit einem solchen "Hauptschalter" und einem neuartigen Funktionsprotein, können schrittweise weitere Gene unter die Kontrolle dieses Regulatorgens gebracht und ausprobiert werden, ob die Funktion besser wird (im Augenblick ist man im Falle des Komplexauges bei Drosophila bei 2000 Genen angelangt, die unter der Kontrolle von Pax6-Regulatorgens ausgeprägt werden)! Solche Einheiten "wachsen" im Laufe der Zeit zu einem hierarchisch organisierten Gennetz, das sich immer schwerer auflösen läßt.

Wieder wird ein bereits reproduktionsfähiges Lebewesen vorausgesetzt. Aber wie ist es entstanden? Regulatorgene gibt es in einer Ursuppe mit Sicherheit nicht!

M. Neukamm: Eine Mutation am Regulatorgen würde nun eine Änderung des Zusammenspiels aller untergeordneten Gene gleichzeitig bewirken. Die einzelnen Strukturen, die beim Aufbau eines Organs beteiligt sind, müßten infolge der Kopplung nun nicht mehr "warten", bis die anderen "richtig" mutieren. Dadurch wird die Trefferchance für eine günstige Mutation stark erhöht, weil das Variationspotential mit steigendem Kopplungsgrad dramatisch eingeengt wird (man könnte sagen, die "Loszahl" der möglichen Mutationen wird durch Kopplung bedeutend verringert) (RIEDL, 1990).

Wie entstand das erste Lebewesen? Das ist die Frage. Und nicht: Wie verändert sich ein bereits bestehendes Lebewesen?

M. Neukamm: Denken wir uns dazu eine Struktur, für die zehn Gene codieren. Nehmen wir an, die Chance, daß in jedem der zehn ungekoppelten Gene unabhängig voneinander eine passende Mutation zustandekommt, läge jeweils bei 10-6. Die Wahrscheinlichkeit einer positiven Gesamtveränderung der Struktur erniedrigt sich daher auf (10-6)10 = 10-60. Kommt es nun aber zu einer "Rangung" (Ordnung) der zehn Gene im Sinne einer gemeinsamen Kopplung unter ein Regulatorgen, können viele der Einzelentscheidungen (Mutationen) vermieden werden, wir haben es mit einem Abbau von "redundanten Determinationsentscheidungen" zu tun. Infolge der Kopplung zehner Gene beträgt die Chance, das Funktionselement als Ganzes selektionspositiv zu verändern, jetzt nicht mehr 10-60 - die Erfolgschance der Änderung eines Regulatorgens bleibt im Prinzip bei 10-6 (RIEDL und KRALL, 1994). Und da es immens viele Möglichkeiten geben dürfte, irgendwelche Gene schrittweise so zu verschalten, daß sie dem System jeweils einen Überlebensvorteil bescheren, ist die Schlußfolgerung der Evolutionsgegner widerlegt.

Wir können also festhalten: Die Kopplung von Genen führt einerseits zwar zu einer höheren Notwendigkeit, "passende" Mutationen zusammenzubekommen; aufgrund der Folgelasten wächst der "selektive Ausschuß". Gleichzeitig wird aber das Evolutionsgeschehen immer mehr dem Regime des Zufalls entzogen.

Das Wort "Zufall" ist Evolutionstheoretikern fraglos äußerst unangenehm. Es wird daher vehement nach Möglichkeiten gesucht, die Mutationen der Gewalt des Zufalls zu entreißen. Man bemüht dazu alle nur denkbaren Hypothesen. Letztlich ist die Entstehung des ersten Lebewesens aber entweder durch reinen Zufall entstanden oder durch intelligentes Wirken. Selektion müsste sich zu diesem frühen Zeitpunkt vor allem auf den Zweite Hauptsatz der Thermodynamik beschränken. Langkettige Moleküle halten dem Zerfall (als Ergebnis der Entropie) nicht stand, wenn sie nicht Teil eines Systems (z.B. einer Zelle) sind, das diesem Zerfall standzuhalten in der Lage ist und es keinen Mechanismus der gezielten Herstellung (bzw. Reproduktion) lebensnotwendiger Makromoleküle gibt.

M. Neukamm: Die Biologen sprechen von "Kanalisierung" oder Entwicklungszwängen ("constraints") (ALBERCH, 1982). Damit wird jedoch jede Wahrscheinlichkeitsbetrachtung wertlos, weil die Prämisse von der Kumulation vieler unabhängiger Mutationsschritte nicht mehr stimmt:

Für die Entstehung erster DNS-Sequenzen ist dies irrelevant. Die Entstehung geschieht ohne Mutation durch einfache Aneinanderkettung von Nukleotiden.

M. Neukamm: "Dabei (inzuge der Genkopplung) zieht das Wachsen bestimmter Notwendigkeiten einen Abbau der Möglichkeiten des Zufalls nach sich, während dieses verringerte Repertoire der Entscheidungen eine Kanalisation der möglichen Ereignisse zur Folge hat (...) Die funktionelle Bürde vieler Merkmale und der selektive Ausschuß wachsen. Gleichzeitig aber werden im Fall gleichbleibender Anpassungsziele zahlreiche Entscheidungen redundant (...) Der Anpassungsvorteil steigt dabei exponentiell mit der Zahl der vermeidbaren Entscheidungen, wobei die Zunahme der Realisierungschancen eines bestimmten Zustandes wieder der Abnahme der Möglichkeiten des Zufalls entspricht (...)" (RIEDL, 1990, S. 352 f.)

Zusammenfassend läßt sich feststellen, daß die Wahrscheinlichkeitsberechnungen nicht das leisten, was sich Antievolutionisten erhoffen. Die angenommenen Voraussetzungen erweisen sich als falsch, weil sich Berechnungen, welche die Selektion, die Entscheidungsfreiheit in der Evolution, die Möglichkeit von der Existenz von Doppelfunktionen, oder die Kopplung von Genen unberücksichtigt lassen, als irrelevant herausstellen.

  • Selektion kann bei der Entstehung des ersten reproduktionsfähigen Lebewesens nicht greifen.
  • Entscheidungsfreiheit haben nur intelligente Wesen, Naturgesetze nicht.
  • Doppelfunktionen Die Entstehung einer Struktur, die mehrere Funktionen ausführt, ist natürlich noch weit unwahrscheinlicher, als die Entstehung einer Struktur, die nur eine einzige Funktion hat.
  • Genkopplung verkompliziert die zufällige Entstehung eines ersten Lebewesens und bringt dort nichts.

Tatsächlich ist keine der angeführten Punkte von irgendeiner Relevanz, wenn es um die Entstehung eines ersten Lebewesens aus "toter" Materie geht. Aber selbst wenn man ein erstes Lebewesen einfach als vorhanden voraussetzt (wie Darwin das vor den Tatsachen kapitulierend tat), können obige Mechanismen die Vielfalt an Lebewesen nicht erklären. Selektion wirkt veränderungshemmend. Evolution hat keine Entscheidungsfreiheit, sondern existiert empirisch zugänglich nur im Rahmen einer auf Dauer gesehen degenerierenden Mikroevolution. Eine Höherentwicklung ist eine unzulässige Extrapolation aus allmählicher Abwärtsentwicklung. Doppelfunktionen müssen, wie der Name schon andeutet, mindestens zwei Funktionen gleichzeitig ausführen können. Die Entstehung solcher Doppelfunktionen ist logischerweise unwahrscheinlicher als die Entstehung von Einfachfunktionen.

Letztendlich bringen alle hier vorgebrachten Erklärungsversuche neue Probleme, statt die bestehenden Probleme der Evolutionstheorie zu beseitigen oder zu verringern: Ohne Selektion wäre eine Evolution ungerichtet (und so eine Evolution braucht man nicht), mit Selektion wird Evolution andererseits stark behindert (um nicht zu sagen: verhindert). Mutationen sowie Kopierfehler werden zwar als grundsätzlich negativ angesehen, aber ohne sie gäbe es überhaupt keine Veränderungen. Doppelfunktionen verringern das Problem der Synorganisation zwar ein wenig, potenzieren jedoch die Unwahrscheinlichkeit ihrer Entstehung. Es ist so wie Junker und Scherer es in ihrem Kritischen Lehrbuch treffend formulieren:

Die Einbeziehung innerer Selektionswirkungen [z.B.: Genkopplung, Anm. von mir] ist zwar sicher eine theoretische Notwendigkeit, aber in dieser Theorie einer evolutiven Entstehung neuer Strukturen werden ebensoviele neue Probleme aufgeworfen wie alte als gelöst angesehen werden. [...] Den Erklärungsversuchen für Makroevolution durch "Präadaption", "additive Typogenese" und "Doppelfunktionen" gelingt nur eine "Verkleinerung" der Problematik, sie können jedoch keine Lösungen anbieten (S. 93).

Last update: 08.03.2021