Der Beginn des Lebens selbst scheint uns weiterhin unbekannt zu bleiben. Ein unabdingbares “Minimum” waren sicherlich irgendwie entstandene Replikatoren, also solche Verbindungen von organischen Molekülen in der Lösungsphase, die die Fähigkeit der
Selbstreproduktion erworben haben. Replikation bedeutet in der Biologie die Entstehung von lebendigen Organismen aus Elternorganismen. Diese Voraussetzung der Replikation, also der Vermehrung, mußte anfangs erfüllt sein. Und auf die Frage, wie dies geschah, besitzen wir keine auf Experimenten (nicht einmal auf Simulationen) basierende Antwort. Wir müssen demnach diese früheste Lebensäußerung als gegeben voraussetzen. Meine weiteren Ausführungen werden sich auf die Andeutung beschränken, weswegen das Leben in seiner erst entstandenen Form “nichts außer sich selbst” erschaffen konnte.
An dieser Stelle erlaube ich mir eine Anmerkung, die uns zwar dem biologischen Problem nicht unmittelbar näher bringt, die aber zumindest vor Augen führt, wie viele Produkte, die von uns nur für eigene Erfindungen oder auch für ausschließlich durch die Menschen gezogene Folgerungen aus wissenschaftlichen Entdeckungen gehalten werden, bereits Millionen von Jahren vor dem Auftritt des Menschen auf der Erde entstanden sind.
Als nämlich die ersten Generationen von Atomreaktoren auf der Grundlage der Spaltung (unter dem Einfluß von Neutronen) des Urans (U 235) entstanden sind, herrschte die Überzeugung, daß es auf unserem Planeten VOR der Ingangsetzung der ersten Kettenreaktion der Kernspaltung solche “natürliche Reaktoren” nicht geben konnte. Erst etwas später wurde aber so ein durch die Kräfte der Natur geschaffener “Reaktor” in Afrika entdeckt, der ohne jeden Zweifel funktionierte und die Umwelt über Hunderttausende von Jahren radioaktiv beheizte (gegenwärtig ist er radioaktiv “tot”). Dieses Beispiel zeigt, wie vorsichtig wir mit der Behauptung sein sollten, daß wir Menschen uns irgend etwas, gleich ob es ein “Atommeiler” oder ein “Computer” ist, ausgedacht oder zum ersten Mal in der Welt konstruiert haben.
Annähernd, aber leider nur annähernd, weiß man, daß die ursprüngliche Erdatmosphäre sauerstoffrei war, daß es in ihr viel Kohlendioxid und Methan gab, und daß das Leben aller Wahrscheinlichkeit nach (so nimmt man HEUTE an) in heißen Quellen entstand, weil es in höchstem Grad unwahrscheinlich und fast unmöglich wäre, daß das kaum entstandene Leben, bestehend aus in “Hyperzyklen” verbundene Molekülen (das Modell stammt von Manfred Eigen), schon die Sonnenenergie zu assimilieren vermochte. Wie man weiß, können dies Pflanzen dank des Chlorophylls, und vor den Pflanzen konnten dies bereits Algen. Aber der Prozeß, die Quanten der Sonnenstrahlung aufzufangen, ist so subtil konstruiert, daß es, wie ich meine, wahrscheinlicher wäre, auf der Oberfläche eines toten Planeten, z.B. auf dem Mars, ein Auto zu entdecken, das sich “irgendwie selbst aus einem Eisenerzlager herauskristallisiert hat”.
Die Photosynthese konnte, anders gesagt, am Anfang der Biogenese nicht erfunden werden. Das Leben hat sich aber nach unserem unvollkommenen Wissen, das voller blinder Flecken ist, “selbst geschaffen”, und deswegen mußte ihm auch in seiner Anfangsetappe dieser raffinierter Mechanismus, den die Pflanzen in der Photosynthese verwenden, vorenthalten bleiben. Auch diese Bemerkung ist nur teilweise nebensächlich, weil sie indirekt zeigt, daß die Entstehung des biogenetischen Präludiums sich nicht “auf einmal” und von Anfang an in den fortschreitenden Formen ereignen konnte, die dem
Leben, das uns umgibt und das in uns selbst seinen Ausdruck gefunden hat, gleichen.
Die Sonne hatte am Anfang oder an der Schwelle der Biogenese eine ca. 10 bis 20% geringere Strahlungskraft als gegenwärtig. Deswegen mußte die Erde “irgendwie” beheizt werden, andernfalls nämlich hätte sie einen mächtigen Gletschermantel steinhart gefrieren lassen müssen. Was diese Erde vor vier Milliarden Jahren außer dem Sonnenlicht erwärmte, weiß man nicht mit Sicherheit, weil auch hier gegenwärtig Streitigkeiten toben, in denen Hypothesen und Alternativhypothesen aufeinanderprallen. Ich bin gleichwohl gezwungen einfach anzunehmen, daß die Oberfläche des bereits mit einer Kruste versehenen Planeten so erstarrt ist, daß große Gewässer entstanden sind und “irgendwie” so temperiert wurden, daß sie den biogenetischen Prolog ermöglichten. Zu dieser Zeit müssen die ersten Replikatoren entstanden sein. Ob sie ihre Nachkommen dank irgendeinem Vorläufer des Nucleotidencodes erzeugten oder auch nur wegen irgendeiner einfachen Struktur, die Replikationen überhaupt ermöglichte, weiß man nicht.
Ich halte es für angebracht, die Dimensionen unserer gelehrten Unwissenheit hervorzuheben, damit es nicht so aussieht, als würde ich hier auf einen Schlag “alles” erklären wollen. Dank der Entdeckung der Rechenleistung, die potentiell in den Nucleotiden schlummern, haben wir aber bereits einen Zugang zum Geheimnis ihres späteren Evolutionserfolges, denn Adelmans Oligonucleotide funktionieren wie ein Parallelcomputer oder, besser, wie eine riesige Anzahl (vielleicht mit einer trillionenfachen Kapazität) einzelner molekularer “Nanocomputer”, von denen JEDER “auf eigene Faust” arbeitet und eine ÄHNLICHE Aufgabe zu lösen hat.
Man muß unbedingt den Hauptunterschied zwischen den molekularen Autoreplikatoren und unserem Computer erwähnen, der weder das Material, noch die Algorithmen der Programme betrifft. Der Unterschied besteht darin, daß WIR unserem Computer die Aufgaben aufzwingen, wobei wir sie so programmieren, daß wir ein von UNS benötigtes Ergebnis erzielen. Die “Urcomputer” hingegen, die sich zu Billionen auf der Erdoberfläche und vielleicht zuerst nur in der Tiefe der heißen Thermen, Geysire und vulkanisch erwärmten Gewässer vermehrten, enthielten KEIN PROGRAMM. Es konnte ihnen ja niemand ein Programm aufzwingen, und das einzige “Programm” war für sie einfach eine offensichtliche Tatsache: Überleben konnten nur solche
Protoorganismen, die - durch Teilung - die nächsten Generationen in Gang setzen konnten, und diese nachkommenden Generationen haben sich nur sehr wenig von den Bakterienvorfahren unterschieden (Ich bitte zu berücksichtigen, daß ich nicht weiß, ob man jene Formen des “Urlebens” mit gutem Gewissen “Bakterien”, Prokaryonten, oder wie auch immer nennen darf, aber ich muß irgendeinen Namen für sie verwenden).
So also “gab es am Anfang mikromolekulare, sich selbst vervielfältigende Computer-Replikatoren”. Ganz sicher mußte eine riesige Mehrheit von ihnen umkommen, weil die Kunst der Replikation erst im Keim vorhanden war. Darüber hinaus haben wir keine blasse Ahnung, ob dieses Urleben mono- oder eher polyphylisch entstanden ist, d.h. ob es der Natur “gelungen ist”, nur einen “Standardtyp” der Vorbakterien zu generieren oder ob es auch möglicherweise mehr von diesen Typen gab und sie vielleicht miteinander um das Überleben wetteifern mußten.
Die Tatsache, daß gegenwärtig alle biochemischen Verbindungen ausschließlich linksdrehend sind,
scheint nahezulegen, daß anfangs (aber auch nicht mit Sicherheit) das “rechtsdrehende und linksdrehende Leben” entstanden ist, und daß in diesem Wettbewerb aus nicht nur schicksalsbedingten Gründen (aber ich kann hier auf diesen Problemzweig nicht weiter eingehen) das linksdrehende Leben gewann. In jedem Fall kann man mit dem “gesundem Menschenverstand” schließen, daß die biogenetischen Replikatoren zuerst ziemlich schlecht funktionierten, weil der Löwenanteil ihres Folgeprodukts “nichts taugte”, also nicht überlebte. Und dadurch war bereits in jenem frühesten Stadium die Guillotine, die die Fähigkeit zu überleben von der Unfähigkeit trennte, einfach die Vernichtung, weil das, was sich nicht so vermehren konnte, daß die minimalen Bedingungen der Anpassung an die Umwelt und an andere Urorganismen erfüllt waren, umkommen mußte. Das scheint selbstverständlich zu sein.
An diesem Punkt stoßen wir, wie mir scheint, auf ein ziemlich geheimnisvolles Hindernis, das bewirkt, daß wir das Leben “in der Retorte” allein immer noch nicht erzeugen (synthetisieren) können. Das Hindernis sehe ich in den MILLIARDEN VON JAHREN der unaufhörlichen Replikation, in der endlosen Existenz ausschließlich elementarer und gleichzeitig solcher Formen, die damals NOCH nicht über die kleinste Kreationspotential verfügten, das über ihr “existentielles Aussprossungsminimum” hinausging. Das ist - scheint mir - ziemlich fatal, und eine
Bestätigung meiner Befürchtungen, die ich in der Summa Technologiae vor dreißig Jahren ausgesprochen habe: Es mußte erste die gigantisch lange, für die Menschen unvorstellbare Latenzzeit des Lebens vergehen, bevor aus dem Urleben der Vorbakterien der ganze Linnaeus-Baum der Arten hervorgehen konnte. Bereits aus den paläontologischen Protocodes, die sich aus den versteinerten Überresten erkennen lassen, wissen wir, daß das TEMPO der späteren Stämme, Ordnungen und Arten immer schneller wurde, wohingegen die
“Vorbereitungsphase” - die Milliarden Jahre dauernde Lehrzeit des Lebens auf der Erde - am längsten war. Aber als einmal “der Schöpfungsmotor ansprang”, steigerte sich das Entstehungstempo von immer neuen Arten, bis es das Maximum der Geschwindigkeit erst vor ungefähr einer Million von Jahren erreichte: als es den denkenden Mensch hervorbrachte.
In diesem Bild bleiben jedoch viele Unbekannte. Man darf in ihm bereits die ungeheuer schweren Mühen dieser force brute erblicken, die durch Millionen von Jahren aufs Geratewohl nichts außer der Minimalaufgabe des ÜBERLEBENS in Gang setzen konnte. Das Überleben allein war damals so ein schwieriges und riskantes Werk, daß von sämtlichen Lebensformen, die es irgendwann auf der Erde gegeben hat, 99% der Vernichtung anheimfielen. Über den Untergang der Reptilien, die über 120 Millionen Jahre unseren Planeten beherrschten, wissen wir besonders viel, weil es erstens oft Riesen mit ungeheuren Ausmaßen waren, deren gigantische Skelettüberreste bei Ausgrabungen entdeckt wurden, und zweitens, weil ihr Untergang auf eine ziemlich spektakuläre Weise geschah, aller Wahrscheinlichkeit nach auf Grund einer kosmischen Einwirkung. Aber immer deutlicher erkennen wir, daß das Leben auf der
Erde sowohl durch “geologisch-vulkanische” und klimatisch-glaziale Veränderungen des öfteren ähnliche Katastrophen erlitten hat.
Wir sollten jedoch zu der uralten Vergangenheit, in der eine Milliarde Jahre lang eine “kreative Stille” herrschte, zurückkehren. Was sollte, was konnte sie beenden und unterbrechen, um zu der kambrischen Explosion zu führen, zu dem “plötzlichen” (d.h. “nur” innerhalb von Millionen von Jahren sich ereignenden) Ausbruch des evolvierenden Lebens, das heißt zum Start der “Evolutionsfortschritts”? Man sollte sich darüber klar sein, daß der Fortschritt eine für uns Zeitgenossen so selbstverständliche Tatsache ist, daß wir sie eigentlich überhaupt nicht bemerken. Ich halte nämlich das ganze, unter den Biologen typische Gerede über die “primitiven” Formen der Organismen oder ihrer einzelnen Organe für den Effekt eines merkwürdigen Irrtums. Wie kann man überhaupt z.B. annehmen, daß Insekten, die auf der Erde seit dreihundert Millionen von Jahren existieren und unvergleichbar weniger sensibel auf Radioaktivität als die Säugetiere mit dem Menschen an der Spitze reagieren, “primitiver” seien als die Primaten, inklusive dem Menschen, der ca. 10 -12 Millionen Jahren alt ist? Und wenn wir uns die Mikroorganismen anschauen, die es überall um uns herum und in uns gibt, dann sollte uns doch ihr Überleben während aller Epochen und der Milliarden von Jahren auffallen. Ich sage nicht, daß sie in einer unveränderten Gestalt überlebten. Leider verfügen gerade die Mikroorganismen, die bei uns oft Krankheiten auslösen, über eine derart große biochemischmolekulare “Rechenleistung”, daß wir mit unseren vollkommensten synthetischen Arzneimitteln und Antibiotika nur Lücken in die Fronten der uns angreifenden Bakterien schlagen können, die nach ziemlich kurzen Zeit gegen alle unsere Medikamente, gegen die ganze gegen sie pharmakologisch und medizinisch gerichtete Artillerie, resistent werden …
Was bedeutet dieses Phänomen? Es bedeutet, daß gerade Bakterien - “die primitiven Formen” nicht als Individuum, nicht als Schar, aber als Gattungen - über ein solches kreatives Potential verfügen, das, eingebettet in der Rechenleistung, sich bei Bedrohung zu aktivieren vermag. Die beim Gentransfer entstehenden Permutationen und Rekombinationen verleihen ihnen Resistenz. Auf Grund dessen könnte man sich vorstellen, daß sogenannte “höhere” Tiere und der Mensch sich eine Resistenz gegen irgendwelche Giftgase oder gegen die Radioaktivität hätten aufbauen können … Die auf den Bereich des Lebens angewandten Begriffe des “Fortschritts” und des “Primitivismus” sind also mit großer Vorsicht zu gebrauchen.
Als ich vor sechzehn Jahren den ersten Vortrag meines fiktiven Supercomputers GOLEM schrieb, legte ich folgende Worte in seinen (Metall)Mund:
Der “dritte” Weg der Evolutionstheorie
In der Evolution “IST DAS PRODUKT WENIGER VOLLKOMMEN ALS DER PRODUZIERNDE”. Ich hatte damals außer der Intuition keine Grundlage, um diese These zu begründen. In diesen Worten steckt, wie der GOLEM weiter ausführte, die Verkehrung aller unserer Vorstellungen von der unübertroffenen Meisterschaft des Artenurhebers. Der Glaube an den Fortschritt, der mit der Zeit zur Perfektion führt und dem mit wachsender Geschicklichkeit nachgejagt wird, ist aus der Perspektive der Theorie älter als der Fortschritt des Lebens, der im Evolutionsbaum fixiert ist. (…) Ich habe erklärt: Das Produkt ist weniger
vollkommen als der Produzent. Das ist ein ziemlich aphoristischer Spruch. Geben wir ihm eine sachlichere Gestalt: IN DER EVOLUTION IST EIN
NEGATIVER GRADIENT BEI DER PERFEKTION DER SYSTEMLÖSUNGEN WIRKSAM. Das ist alles.
Weiter werde ich Golem nicht zitieren. Ich sage nur, daß meine Intuition nach so vielen Jahren begründeter als damals zu sein scheint, als ich sie in Gestalt des fiktiven Computerweisen ausgedrückt habe. Dabei geht es - so läßt sich dies jetzt darstellen - um den Kampf zwischen dem Lamarckismus und dem Darwinismus, also zwischen der These, daß die Evolution aus der Vererbung der von den Organismen erworbenen Eigenschaften hervorgeht, und derjenigen, daß sie ausschließlich von der Mutation der Gene verursacht wird, die die natürliche Zuchtwahl variiert (die Lebensfähigkeit auf die Probe stellt). Nicht ich und nicht Golem, sondern Verfasser von Arbeiten über “die Rechenleistung des Lebens” behaupten neuerdings, daß das Zusammenwirken von Zufallsprozessen (also der genetischen Veränderungen, die durch Mutationen einzelner Gene verursacht werden) mit einer bestimmten Steuerung solcher Änderungen möglich ist: es gibt weder nur den Erwerb von vererbten Merkmalen, noch ein völlig blind verstreutes Auftreten ganz zufälliger Mutationen.
MOMENTAN darf man von diesem “dritten” Weg nur so sprechen: die Schicksalhaftigkeit schließt die Steuerung der Ströme der nachkommenden Organismen nicht aus. Die GENOTYPISCH “guten” Lösungen offenbaren gewissermaßen die Tendenz, sich auf der elementaren Ebene der Gene fortzusetzen. Es gibt keine “reine Schicksalhaftigkeit” keine “reine Lenkung”. Die ORTHOEVOLUTION (z.B. des Pferdes) ist weder das Ergebnis der Vererbung von erworbenen Merkmalen, noch das von blinden Mutationen. Es gibt Strukturen der genotypischen Botschaft, die gewissermaßen bevorzugt werden, so wie ein Stein, der, vom Abhang losgelassen, auf Grund der Trägheit weiter und weiter rollt. Mit großem Nachdruck könnte man also sagen, daß alleine die “Perfektion der Lösungen” einer bestimmten Aufgabe bei der Erzeugung von Gattungen den weiteren Annäherungen an “immer perfektere” Lösung die RICHTUNG gibt. Für verschiedene Gattungen sieht das sehr unterschiedlich aus. Für Elephantidae ist dies anders als für Primaten, weil “unterwegs” Formen entstehen, die die Finallösung “approximieren”. Und wenn der Evolutionsprozeß diesen erreicht, bleibt er stehen. Deswegen hat Homo sapiens sapiens praktisch aufgehört zu evolvieren.
Spezialisierung und Fortschritt
Ich betone gewissenhaft, daß dies weder ein Axiom, noch eine ordentlich dokumentierte Hypothese ist. Auf jeden Fall aber steckt in allem, was ich bisher gesagt habe, eine Chance, den Prozeß der natürlichen Evolution der Pflanzen und Tiere neu zu betrachten: als das riesige GANZE. Die “brutale Kraft” des Lebens brauchte auf der elementaren Ebene der Replikatoren ungeheur viel Zeit, um die Phase zu erreichen, in der das Hinausgehen über die einfache Replikation überhaupt möglich wurde. Dieser Prozeß war sicherlich eine Art Umherirren (und darüber sprach mein Golem, als er die Evolution als “Umherirren des Irrtums” nannte). Wenn man aber aus der neuen Perspektive auf den gleichen Prozeß blickt, können wir sehen, daß zusammen mit der “Elementarität” der allerersten Organismen (der Mikroorganismen) im Verlauf der fortschreitenden Spezialisierung die ursprüngliche UNIVERSALITÄT verloren geht. Wie aus einem Baby ein Scholastiker, ein Schornsteinfeger, ein Arzt, Arbeiter, Professor, Fahrer, Mönch, Diktator oder Schneider werden kann, so könnte aus den Bakterien - falls eine Katastrophe, verursacht durch eine kosmische Einwirkung oder durch einen irdischen atomaren Krieg, die Ganzheit der höheren Lebensformen vernichten würde - in einer nächsten Evolution ein weiterer Reichtum an lebendigen organischen Formen entstehen. Natürlich wäre das neue Leben weder mit dem Leben identisch noch ihm ähnlich, das die Evolution bisher zu einem Linneschen Baum der Arten gestaltet hat! Diese Möglichkeit ist potentiell in der Universalität des Lebens, in seiner biochemischen “nucleotidischen Rechenleistung”, enthalten. Und das zeugt von den Verlusten, welche jede Richtung der Artenspezialisierung für das Leben mit sich bringt. Sie verursacht, daß wir die Regenerierungsfähigkeiten (einer Eidechse wird der Schwanz wieder wachsen, einem Menschen werden aber ein verlorenes Bein oder eine Hand nicht wieder wachsen) verloren haben.
Wer sich übrigens genauer für die ursprüngliche Form dieser ganzen Diatribe, die gegen den “evolvierenden Fortschritt” des Lebens gerichtet ist, interessieren sollte, wer die Kehrseite des “Fortschritts” sehen möchte, ohne eine Jeremiade zu hören, möge mein Buch Golem XIV (1981) heranziehen. Woher kam meine Verwegenheit, die heute - vor dem Ende des Jahrhunderts - ihre erste Anzeichen der Verifizierung findet? Ich weiß es nicht, aber ich denke, wenn ich mich vielleicht geirrt haben sollte, dann zumindest nicht in allem.
Man muß sich klar machen, daß die Verwendung des parallel arbeitenden Computers als Modell für die natürliche Evolution lediglich ein sich aktuell anbietendes Bild darstellt. Man kann annehmen, daß ein “sehr seltsamer” Computer entsteht, der kein anderes Programm außer jenem hat, das seine optimale Chance zum ÜBERLEBEN gewährleistet. Weswegen sind jedoch die Replikationen (ohne die die Evolution nicht über ihren protobakteriellen Prolog hinausgehen würde) notwendig? Weil das “Mikroleben” dort entsteht, wo es den Angriffen des molekularen Chaos (z.B. der Brownschen Bewegung) ausgesetzt ist und dadurch irgendeine Form entstehen MUSS, die sich DAUERHAFT diesem Chaos, das sie in die Erstarrung tauscht, widersetzt. Und das ist nur dann möglich, wenn eine Replikation entsteht. Was sich nämlich nicht leistungsfähig replizieren läßt, um sich den Angriffen des Wirrwarrs zu widersetzen (dem Gradienten der Entropie), das stirbt, d.h. es scheidet aus dem “Überlebensspiel” aus.
Die Selbstentstehung der Replikatoren ist jedoch nur die notwendige, aber nicht die hinreichende Bedingung für den weiteren Fortschritt der Evolution. Es wird nämlich ein SPIEL - so kann man den Evolutionsprozeß auch als Modell sehen - gegen die “Bank” geführt, die einfach die Gesamtheit der irdischen leblosen Natur darstellt. Sie “verschlingt” das sich nicht richtig vermehrende Leben. Es ist kein Nullsummen-Spiel, weil die Natur, wenn sie “gewinnt”, also das Leben vernichtet, “nichts davon hat”: das Gewinnen besteht im Überleben, die Niederlage bedeutet Untergang.
Replizieren, um zu überleben - dieses Minimalprogramm entsteht irgendwo an den Fronten der “trillionenfachen Tätigkeiten eines Molekülcomputers in der Lösungsphase”. An diesen Fronten werden “Schlachten” ohne Unterstützung, separat, ausgetragen. Deswegen sprechen wir über den PARALLELISMUS ihrer Verläufe. Woher kommen die “Überschüsse” des kreativen Potentials, aus denen Eukaryonten, Algen, Pflanzen, Tiere zu entstehen beginnen, bis sie in einzelnen Zweigen des “buschartig wachsenden” Evolutionsbaumes “fixiert” werden, wobei jeder Zweig ein sich fixierendes Paradigma (Muster - pattern) eines bestimmten TYPS darstellt, und das weitere Spiel aus einem einmal entstandenen Paradigma alle möglichen Transformations- und Rekombinationskonsequenzen in Bezug auf STRUKTUR UND ART “zieht”? Dieses Potential mußte offensichtlich schicksalhaft entstehen, also so, daß die Bakterien, die NICHT das “prospektive Potential” des Evolutionsfortschritts erworben haben, weiterhin Bakterien blieben, und nur die Lebensformen, die zu einem “konstruktiven Konzept” von höheren selbstorganisierenden Schritten kamen, sich in die “Triebe” entwickelt haben, die Wirbellose und Wirbeltiere u.ä. darstellen. Es gab auch Regresse, da Bakterien entweder überleben oder sterben. Ein Landsäugetier hingegen kann durch eine “Regression” z.B. in das Meer als Seehund oder Delphin zurückkehren. Allgemein führt Spezialisierung den Lebensbaum hinauf, aber sie schaltet gleichzeitig die Chancen einer maximalen Änderung des Paradigmas aus. Wenn das Leben ein “Fischspiel” spielt, dann kann es nicht gleichzeitig ein “Insektenspielen” ausführen. Und wenn es ein Insektenspiel durchführt, kann es nicht Säugertier spielen. Das bedeutet, daß der “Computer des Lebens” selbst weitere neue Programme bei der Vervielfältigung der Arten wählt, und falls er in einigen Abzweigungen verliert (Reptilien haben doch vor 65 Millionen Jahren verloren), nimmt ein anderer paradigmatischer Zweig die Fortsetzung des ÜBERLEBENSSPIELS wieder auf. Programme - Ordnungen, Stämme, Arten -entstehen blind, aber durch Spezialisierungen erwerben sie eine wachsende Orientierung. Mehr wissen wir heute nicht.
Stanislaw Lem 19.06.1997
Wie wäre es, Informationen wie Samen einfach wachsen zu lassen? Bereits vor 40 Jahren hat Stanislaw Lem die Züchtung von Informationen vor Augen gehabt. Heute sieht er daraus die Möglichkeit entstehen, Biocomputer zu bauen, die sich allerdings der Herrschaft des Menschen entziehen werden.
Die im vorstehenden Titel enthaltene Idee kam mir Ende der fünfziger Jahre. Sie wurde zum ersten Mal im Buch Summa Technologiae, das 1964 erschienen ist, so benannt und präsentiert. Sie war damals und blieb lange noch eine Bewohnerin meiner Phantasie. Deswegen wagte ich es nur, darüber in meiner Science Fiction zu schreiben; und so lautet ein Fragment der Überlegungen, die schon 1971 in den Sterntagebüchern des Weltraumfahrers Ijon Tichy veröffentlicht wurden:
Die alptraumartigen Visionen, die uns manchmal von Futurologen über die Welt der Zukunft vor Augen geführt werden - vergiftet mit Abgasen, verqualmt, in der energetischen, thermischen u.ä. Krise steckend -sind nämlich ein Unsinn: in der postindustriellen Entwicklungsphase entsteht die BIOTISCHE TECHNOLOGIE, die Probleme dieser Art beseitigt. Die Beherrschung des Lebensphänomens ermöglicht es, synthetische Spermien zu produzieren, die man in irgend etwas einpflanzt, mit einer Handvoll Wasser besprengt, und bald wächst aus ihnen das notwendige Objekt. Man muß sich nicht darum kümmern, woher ein
solches Spermium das Wissen und die Energie für die Radio- oder Schrankgenese nimmt, genausowenig wie wir uns dafür interessieren, woher ein Unkrautsamen die zum Keimen erforderliche Kraft und das entsprechende Wissen nimmt.
Ende des Zitats. Es war eine Zeit, in der meine “Informationszüchtung” immer noch im Land der reinen Phantasie existierte, denn anders als in einer grotesken Maske oder in einer lustigen Verkleidung konnte ich sie nicht darstellen. Im ganzen Datenverarbeitungsbereich, also in allen Zweigen der Computerentwicklung und der aufeinanderfolgenden Computergenerationen, herrschte ausschließlich die eiserne Regel des Top-down, also “von oben nach unten”: auf Silikonwaffeln hat man immer kleinere Schaltkreise eingeritzt, denn die Geschwindigkeit der logischen Verbindungen, und dadurch die Rechenleistung des Computers, war vom Grad der Mikrominiaturisierung abhängig.
So ist es bis heute. Mir schwebte hingegen schon von Anfang an eine umgekehrte Konzeption vor: die eines Bottom-up-Verfahrens, also “von unten nach oben”, weil auf diese Weise die Technologie des Lebens funktioniert. Es kann ja nichts kleiner und “kompakter” als die in Genen gespeicherte, passiv schlummernde Information sein, die auf eine aus Teilchen zusammengesetzte, nahe an der atomaren Skala befindliche Nukleotiden-“Konstruktion” reduziert ist und in sich “Sensoren” enthält, die nur darauf warten, die Information zu expandieren und in Bauprozeduren zu verwandeln, gleich ob in irgendeiner Spore, in einem Spermium oder in einem Ei.
Ich bin selbst einige Zeit nach dem Erscheinen der ersten Ausgabe der Summa Technologiae in
Verzweiflung geraten, ob meine
“Informationszüchtung” ein Phantom ist, dessen Verwirklichung bis in alle Ewigkeit nicht möglich sein wird. Irgendwie hat diese Idee kein Echo gefunden, weder ein kritisches, noch ein ironisches oder lobendes. Es ist, als ob ich, statt ein Buch zu publizieren, dessen Typoskript in einen Brunnen geworfen hätte.
Das Phänomen des Verschweigens von allzu verfrühten Ideen, die sich noch nicht in dem in industriellen Anwendungen umgesetzten Wissen finden lassen, wie in der ganzen riesigen Computerindustrie mit ihrem unveränderten Konzept “vom Größeren zum Kleineren”, also mit ihrem TOP-DOWN-Ansatz, ist ein Phänomen aller Epochen und allen allzu frechen, einsam geborenen Ideen eigen. Wahrscheinlich habe ich aus diesem Grund in der nächsten Ausgabe der Summa Technologiae die Informationszucht einer strengen Kritik unterzogen, weil es so schien, als ob sie weder in meinem Land noch im Ausland überhaupt wahrgenommen worden wäre.
Man muß feststellen, daß wir sowohl von der “Nanotechnologie”, als auch vom Prinzip BOTTOM-UP anstatt TOP-DOWN immer noch weit entfernt sind, auch wenn sich bereits Wissenschaftler mit dieser Umkehrung - wenn auch nur anfänglich - beschäftigt haben. Davon zeugt ein umfangreicher, in “New Scientist” vom 19. Februar 1994 unter dem Titel “Moleküle, die sich selbst schaffen” (Molecules that build themselves) erschienener Artikel. Und in der Tat wird im Untertitel gesagt: “Die Natur stützt sich auf solche komplexen Moleküle wie die der DNA, die sich selbst zusammenbauen können”. Chemiker erhalten heute von der Biologie Unterrichtsstunden, die uns zu einer neuen Mikrochipgeneration führen können.
Soviel als Ankündigung. In dem Artikel, den ich hier weder zu zitieren noch ausführlich zusammenzufassen beabsichtige, wird dagegen zumindest der Grundsatz dargestellt, der offensichtlich mit der Einleitung zu meiner “Informationszüchtung” verwandt ist. Ich gebe zu, daß ich eine derart prompte Verwirklichung meiner Ideen aus der Zeit vor dreißig Jahren nicht erwartet habe: Es gehört sich, das Verdienst zuerst der unglaublichen Beschleunigung der wissenschaftlichen Erkenntnis zuzuschreiben, die (nicht zuletzt) der Akzeleration unterlag, weil heute, wie man bereits errechnet hat, mehr Wissenschaftler als in der gesamten vergangenen Zeit bis zur Gegenwart leben und arbeiten.
In dem, was Chemiker entdeckt haben und was die “pseudobiologische Datenverarbeitung” ankündigen kann, die vielleicht auf die niedrigste Ebene in der Natur führt, da unter den Atomen und ihren Verbindungen wohl bereits die Quantengesetze herrschen, wird allerdings, wie es heute scheint, das Fundament für eine noch weitergehende Mikrominiaturisierung nicht gesucht werden können. Hier herrscht Heisenbergs Unschärfeprinzip, gibt es die sich von den Nukleonen nur mit dem Einsatz kosmogenischer Energie spaltbaren rätselhaften Quarks, und Wellen, die Korpuskel sind, sowie Korpuskel, die Wellen sind … Doch ich würde meinen Kopf nicht dafür hinhalten, daß dies der Datenverarbeitung im kommenden Jahrhundert unzugänglich bleiben wird.
Die ersten Elemente, die ersten aufgedeckten Ziegel der molekularen Architektur “von unten nach oben” sind, wie das oft am Anfang der Fall ist, ziemlich einfach - fast wie LEGO-Bausteine, wenn auch nicht in jeder Hinsicht. Einstweilen wurden zwei Molekülklassen erkannt: sogenannte “Katenane” und
“Rotaxane”. Catena heißt im Lateinischen Kette, und auf englisch bedeutet concatenation eine Verkettung der Glieder. So sehen auch die Verbindungen der ersten Gruppe aus: sie sind wie etwa
zusammengekoppelte Ringe. “Rotaxane” rotieren, umlaufen die Verbindungsachsen (nicht einer mechanischen, sondern einer physikochemischen Verbindung) zweier molekularen Gruppen, als ob jemand einen Ring um ein mit zwei Kugeln abgeschlossenes Gewicht legen würde. Ganz allgemein muß man sich klarmachen, daß die ungeheuerlich präzise biologische Architektur eigentlich immer in der flüssigen Phase entsteht und nicht in der festen Phase der bekannten solid state electronics. Die flüssige Phase, die Phase der Lösungen oder der Koloide, schafft ganz neue Bedingungen, die nicht nur für die Mechanik der festen Körper und für die “Makro”-Elektrodynamik, sondern auch für die Silikontechnologie unbekannt sind. Grob vereinfachend gesagt, sind Chips wie Tafeln und wir wie Kinder: wir gravieren mit Griffeln Schaltkreise und “Tore” auf das Silikon. In der flüssigen Phase wird all das bereits der Vergangenheit wie Segelschiffe und Ballons in der Ära der Düsenflugzeuge angehören.
In USA werden bereits dreidimensionale Strukturen synthetisiert, die den in den biologischen Zellen enthaltenen Follikeln ähnlich sind. Und in Harvard werden molekulare Oberflächenschichten geschaffen, die die Entsprechungen der zweidimensionalen organischen Kristalle darstellen. Wiederum eröffnet erst der weitere Ausbau der Rotaxane ein Verständnis dafür, warum die “Erbmatrix”, welche die Nukleotidenspirale darstellt, eigentlich die Form von spiralförmigen “Treppen” besitzt. Wie glühende Enthusiasten der Physikochemie behaupten, sind Katenane und Rotaxane gewissermaßen Vorläufer der molekularen Schaltungen. Es ist nicht mehr schwer, solche molekulare “Apparate” zu schaffen, die die binäre Logik, das Fundament der ganzen digitalen Revolution unseren Jahrhunderts, ausdrücken können.
Ich bitte, dem Wort “ausdrücken” besondere Aufmerksamkeit zu schenken. Zwar enthält diese Logik allein keinen Inhalt, jedoch kann man aus solchen Elementen größere Strukturen bauen oder, besser, wird man solche bauen können. Was die Geschwindigkeit betrifft, so sollte diese keinen Kummer bereiten. Die Rotaxane rotieren ca. 300.000 mal pro Sekunde und wiegen ca. 3000 Daltons. Als molekulare Speichersysteme, also als Informationsspeicher, sind sie auch entsprechend winzig: 5 Nanometer bei maximaler Ausdehnung …
Einerseits haben sich also Chancen für eine Biocomputerarchitektur nach dem molekularen Prinzip des bottom-up abgezeichnet, andererseits aber auch solche für eine vielleicht noch vielversprechendere molekulare Architektur, mit der man endlich imstande sein wird, den zugleich riesigen und rätselhaften Hiatus zwischen allen möglichen Geschöpfen der toten und der lebendigen Materie zu füllen. Im Grunde genommen gibt es nämlich bis heute keinen kontinuierlichen Übergang zwischen diesen, und deswegen postulierten in der nahen Vergangenheit die Philosophen die Existenz irgendeiner vis vitalis, die Entelechie oder andere rätselhafte übermateriellen Seinsformen, die weder auf die Physik noch auf die Chemie reduzierbar sein sollen, wie die “embriogenetischen Strahlen” Gurwitchs, jene andere “Hälfte der Wachstumsorganisationen”, die, nahezu unsichtbar, den lebendigen Organismen und Geweben eine mit nichts vergleichbare Aktivität einhauchen kann.
Dieser Hiatus wird natürlich allmählich und langsam gefüllt werden, und sein extrapolierender Begleiter wird die “Philosophie der Zukunft” bilden. B. Gräfrath, ein deutscher Philosoph aus Essen, hat mir geholfen, diesen Begriff zu prägen. Er lehrt an der Universität Elemente irgendeiner “Lemologie” in Anlehnung an meine diskursiven Bücher, z.B. Golem XIV, und machte überzeugend deutlich, daß ich eigentlich keine “Futurologie”, wie sie vor mehr als zwanzig Jahren in Mode war, betreibe, da ich keine konkreten “Erfindungen” vorauszusehen versuche. Wenn das, was ich schrieb, nach einer “Prognose” aussah, dann nur in dem Sinn, in dem Bacon vor 400 Jahren die Überzeugung zum Ausdruck gebracht hatte, daß selbstfahrende Maschinen des Menschen in die Tiefen der Meere eintauchen, sich auf dem Land bewegen und die Luft beherrschen werden.
Diese “Philosophie der Zukunft” sollte beispielsweise epistemologisch ontologische Perspektiven und ethisch-moralische Beurteilungen solche Schöpfungen des Menschen erörtern, die es nicht gibt, zu denen aber die sogenannte unermüdliche “faustische Komponente” der menschlichen Natur schon bis zum Ende des 20. Jahrhunderts führen wird. Es handelt sich nämlich darum, daß unsere Erzeugnisse die Natur nachahmen, auch wenn sie oft anders als die Natur funktionieren (das Auto ist ja kein Plagiat eines Vierbeiner und ein Flugzeug kein Plagiat eines Adlers), und daß sie irgendwann, ausgehend von den natürlichen Phänomenen, die Natur, wie von einer Schleuder katapultiert, überholen werden. Dadurch wird sich die Zweischneidigkeit des menschlichen “Fortschritts” noch drastischer als heute offenbaren, der gleichzeitig auf der Vorderseite das GUTE und auf der Rückseite das uns und sich selbst bedrohende BÖSE ist. (Merkwürdigerweise erinnert dies an die
Worte der Heiligen Schrift über das “Verzehren der Früchte vom Baum der Erkenntnis”, wo der Satan sagt: eritis sicut Deus scientes bonum et malum …).
Die Projektionen meiner Phantasie schwebten bis dahin, als ob sie in der Schwerelosigkeit der Phantasmate eingeschlossen wären, in einzelnen Kapiteln meiner Bücher, wie beispielsweise der Summa Technologiae. Jetzt beginnen die ersten Stufen der Treppe aus dem Informationsnebel aufzutauchen, die zu diesen frech und vorzeitig ausgedachten Möglichkeiten führen, in denen sich sogar mehr Gefahren als Triumphe für unsere Spezies verbergen. Aber wenn wir bereits wissen, daß der “Fortschritt” autokatalytisch ist, daß die Technologie auch als Biotechnologie die “unabhängige Variable” der Zivilisationsgeschichte darstellt, dann werden alle Versuche, sie anzuhalten oder abzubremsen, zunichte gemacht.
In unserer Zeit, in der Zeit des Übergangs nach dem Fall des sowjetischen Imperiums, herrscht offensichtlich das Chaos, in dem manche Gefahr lauert. Es ist möglich, daß diese Zeit eine Verlangsamung der wissenschaftlichen Erkenntnis verursacht. Wir wissen ja, daß sie in der ehemaligen UdSSR fast zerstört wurde, und man kennt die Rufe des Entsetzens, die aus den wissenschaftlichen Kreisen in den USA zu uns kommen. Angesichts des Verschwindens des größten Gegners verlangen der Kongreß und Anhänger der “konservativen” Anschauung, den Etat des Bundes und die Etats der Bundesstaaten, die während des Wettrüstens im kalten Krieg die Grundforschung weitestgehend mitfinanziert haben, bedeutend zu kürzen. Das wäre ein Phänomen mit dem Nachgeschmack einer großen Bedrohung. Weder Japan noch manche der “asiatischen Tiger”, in denen weiterhin eine strenge Kalkulation herrscht, werden sich nicht für derartige Reduktionen im Bereich “R and D”, Research and Development, entscheiden, und dann kann es zu einer Verlagerung der wissenschaftlichen Zentren von einem Teil des Globus auf andere Kontinente kommen.
Die Wissenschaft verliert jedoch nicht, weil sie sich so oder so weiter entwickeln wird, und aus ihrer Geschichte haben wir bereits erfahren, daß der breiten Umsetzung von neuen Technologien, Energiequellen, Werkzeugen und Handlungsprogrammen immer ein Vorbereitungszeitraum, gerade in der Grundlagenforschung, vorangehen muß, der dann zu Ergebnissen führt, die man von vornherein weder genau projektieren noch hinsichtlich der für die Menschheit günstigeren oder fataleren Folgen vorhersehen kann. Die Arbeitslosigkeit als Folge der allseitigen Automatisierung könnte zur Plage des 21. Jahrhundert werden, und man muß sie jetzt schon in Betracht ziehen (Norbert Wiener schrieb über sie vor einem halben Jahrhundert in Human Use of Human Beings).
Die pseudobiologischen Moleküle, die sich bei einer Beschädigung selbst reparieren können und zur Vermehrung (Replikation) fähig sind, werden etwas mehr als das einfache Nachäffen separater organischer Funktionen oder ein Plagiat der Lebensphänomene sein. Sie sind Vorboten der Umwälzungen, vielleicht der Umwertung, die den Einfluß der Kernspaltung auf das menschliche Dasein erheblich übertreffen. Im übrigen wird kein Pathos beim Nachdenken über die “Philosophie der Zukunft” benötigt.
Ich könnte mich höchstens beklagen, daß meine Prognosen, teilweise in Kostüme gekleidet und in einem Szenario der Sience Fiction dargestellt, in Polen nicht verstanden, beurteilt und als wahrheitshaltig - im Sinne einer künftigen Wahrheit - anerkannt worden sind. Was der Spruch Nemo profeto in patria sua sagt, wurde nicht erst gestern gedacht und im Grunde genommen wiederholt er nur ein altes Stereotyp, für das es kein Heilmittel gibt. Ich mußte hier meine Texte aus dem Deutschen übersetzen!
Die Wissenschaft befindet sich momentan in Polen in einem fatalen Zustand und nichts läßt eine Therapie erahnen, die diesen Zustand eines Kollaps heilen könnte. Dies ist jedoch ein Thema für weitere Erörterungen: die politische Atmosphäre begünstigt zur Zeit unseren Rückschritt und echt gefährliche Ausbrüche einer sarmatischen Selbstsucht …
Um nicht mit einer pessimistischen Anmerkung abzuschließen, erlaube ich mir die letzten Worte zu zitieren, mit denen ich vor Jahren die Summa Technologiae abgeschlossen habe:
Aus zwanzig Aminosäuren-Buchstaben schuf die Natur eine Sprache “im Reinzustand”, die - durch geringfügige Umstellungen der Nukleotidensilben -Phagen, Bakterien, Tyrannosaurier, Termiten, Kolibris, Wälder und Völker zum Ausdruck bringt - sofern sie nur genügend Zeit zur Verfügung hat. Diese so völlig atheoretische Sprache antizipiert nicht nur die Verhältnisse auf dem Grund der Ozeane und auf den Höhen der Berge, sondern auch den Quantencharakter des Lichts, die Thermodynamik, die Elektrochemie, die Echolokation, die Hydrostatik und Gott weiß was noch alles, was wir bislang noch nicht wissen! Sie macht das lediglich “praktisch”, denn alles bewirkend, versteht sie nichts - doch wieviel wirksamer ist ihre Vernunftlosigkeit als all unsere Klugheit! … Wahrlich, es lohnt sich, eine Sprache zu lernen, die Philosophen hervorbringt, während die unsere nur Philosophien erzeugt.
1980 habe ich auf Einladung der Polnischen Akademie der Wissenschaften eine Prognose der Entwicklung der Biotechnologie bis zum Jahre 2060 geschrieben, die im Fluß der Geschichte versank, weil der Ausbruch unserer “Solidarnosc” dazwischenkam, wodurch sie nie veröffentlicht wurde. Ich schrieb in ihr über die Übernahme der “Sprache der Natur - der Sprache der Gene - von der Bioevolution” und darüber, wie ich das Stichwort “die Natur einholen und überholen” verstehe.
Das aber ist ein Thema für eine andere Abhandlung und zu einer anderen Gelegenheit …
Stanislaw Lem 10.04.1997
Ignorantik, Insperten und Labyronthologie
Die Zahl der vernetzten Computer und der im Netz befindlichen Information wächst in exponentieller Weise. Die Informationssuche wird immer wichtiger und gleichzeitig die Blockierung der Zugänge sowie Methoden der Filterung. Es kommt, wie Stanislaw Lem ausführt, zu informationellen Kurzschlüssen, es entsteht das neuartige Informationsböse und möglicherweise die Informationsdepression.
Erst neulich habe ich erfahren, daß Spezialisten des Pentagon vor mehr als 20 Jahren sich die Grundlagen des Internet als ein derart verzweigtes Netz ausgedacht haben, daß es kein “Zentrum” besitzt. Es ging damals um Bildung einer globalen Nachrichtenübermittlung, die durch den Gegner mit atomaren Schlägen nicht vernichtet werden konnte. Der Gegner war selbstverständlich die Sowjetunion. Auch wenn es nicht zur militärisch und strategisch ausgelösten Geburt gekommen wäre, wäre das Internet unvermeidlich trotzdem entstanden, da es bereits seit langer Zeit klar war, daß kein Computer für sich allein, auch nicht der größte, in seinem Speicher alles das einzuschließen vermag, was die Menschheit als Information in allen ihren Varianten sammelt. Es begann also mit dem Fernsprechverkehr, mit Modems, mit Verbindungen, die die Universitäten oder andere Forschungsstellen vernetzen. Gegenwärtig scheinen
jedoch den großen Unternehmen die Konturen der erst entstehenden weltweiten Infobahnen, des Information Highway, besonders einträglich zu sein.
Gleichzeitig beginnt das künftige Jahrhundert als “das Jahrhundert der Information” zu erscheinen, und ebenso sind sowohl die riesigen Vorteile als auch die großen Gefahren immer klarer zu erkennen, die dank dem oder um diesen globalen “Kurzschluß” der universellen Verbindungen aller mit allen anderen herum entstehen. Man kann bereits über die “virtuellen Bibliotheken”, über die “virtuellen Heilanstalten”, über den Cyberspace lesen, die dem Vergnügen ebenso dienen wie den Wissenschaftlern und den Studenten, und schließlich auch jenen “Reisenden”, die gern, ohne das Heim zu verlassen, den amerikanischen Nationalpark Yellowstone, die Wüste Gobi oder die ägyptischen Pyramiden besichtigen würden.
Mit einem Wort, die Schlüsselrolle spielt in jeder der Computerschnittstellen das INFORMATION RETRIEVAL. Als das Finden eines möglichst sicheren, leistungsfähigen und schnellen Weges zu der Information, die von JEMANDEM gesucht wird, hat es mindestens zwei Gesichter. Eine aus wirtschaftlichen, wissenschaftlichen oder anderen Gründen erforderliche Information sucht sowohl derjenige, dem sie legal und rechtschaffen dienen wird, als auch derjenige, der sich in das Innere der Netze einschleichen will, um abzuhören, zu spionieren, einer Information habhaft zu werden, um, mit einem Wort, eine moderne Variante des Verbrechers zu werden, der computer crime praktiziert. Dem von Jahr zu Jahr mit einer exponentiellen Geschwindigkeit wachsenden Internet (man sagt, daß die heutzutage im Netz zugängliche Information bereits das Volumen von 2300 Bänden der Großen Britischen Enzyklopädie überschritten hat), hat man eine Literatur gewidmet, die so schnell wie es selbst wächst, und die man auch selbstverständlich dank dem Netz kennenlernen und lesen kann. Nur nebenbei sei gesagt, daß uns jetzt am meisten geeignete polnische Entsprechungen der Begriffe fehlen, die in den USA für die vielen Innovationen geschmiedet wurden - für rechtmäßige und rechtswidrige Handlungen, für Methoden “der Attacke”, die zu den durch den Computercodes, Paßworte oder Losungen geschützten “Informationsschätzen” zum Beispiel der Banken oder Unternehmen vordringt, und für Methoden der Verteidigung, die zu Informationsfiltern werden. Beides verheddert sich stark in diese offensichtliche und elementare Tatsache, daß weder die “Knoten” des Netzes, das heißt die Computer, von denen es bereits nicht nur Hunderttausende, sondern Millionen gibt, noch die “Netzaugen”, also ihre Verbindungen, nichts verstehen, obwohl sie potentiell “alles wissen”.
Man kann also das Netz (das existierende Internet oder das, was aus dem Internet als einem Keim entstehen soll) nicht als einen globalen Weisen, einen Zauberer und einen Wünsche erfüllenden Flaschengeist betrachten. Dieser scheinbare Flaschengeist “weiß” zwar alles, aber weil er nichts von seinem Inhalt versteht, muß den Netzbenutzern das Finden beispielsweise von Wissens- oder Unterhaltungsangeboten auf eine schlaue Weise erleichtert werden. Es ist wahrscheinlich ziemlich klar, daß zusammen mit der Zunahme der Benutzer, der Orte vom Typ “interaktiver Videotechniken” oder virtueller Bibliotheken und schließlich der eigentlichen “Generatoren der innovativen Information”, das heißt einfach der kreativen Menschen in jeder beliebigen Sphäre und auf jedem Gebiet - der Kunst oder Wissenschaft, oder der Unterhaltung -, gleichzeitig auch die Zahl der Wege wächst, auf welchen die
Suchinformation reist, um die gesuchte Information zu finden.
Ignorantik, Insperten und Labyronthologie
In den Jahren 1972-1979 schrieb ich den Roman Lokaltermin, und ich finde in ihm, nicht ohne mich zu amüsieren, das folgende etwas lange Fragment, das ich mir im Zusammenhang mit dem Gesagten zu zitieren erlaube:
“Ich erfuhr, daß im 22. Jahrhundert Losannien in eine schreckliche Krise geraten ist, die durch die Selbstverdunkelung der Wissenschaft ausgelöst wurde. Zuerst wußte man immer öfter, daß das untersuchte Ereignis mit Sicherheit bereits irgendwann von irgendwem genau untersucht wurde, man wußte nur nicht, wo diese Untersuchungen zu suchen waren. Die wissenschaftliche Spezialisierung zersplitterte sich in exponentieller Progression. Die gravierendste Unpäßlichkeit der Computer - es wurden bereits Megatonnencomputer gebaut - war die sogenannte chronische Informationsverstopfung. Man hat ausgerechnet, daß es in etwa fünfzig Jahren keine anderen Universitätscomputer außer den Spürcomputern mehr geben wird, also solchen, die in den Mikromodulen und Denkmaschinen des ganzen Planeten aufzuspüren suchen, WO, auf welchem Pfad, in welchem Maschinenspeicher die Information über das steckt, was für die aktuellen Forschungen die Schlüsselrolle spielt. Um jahrhundertelangen Nachholbedarf aufzubereiten, entwickelte sich in einem rasanten Tempo die IGNORANTIK, das heißt das Wissen über das aktuelle Unwissen, eine Disziplin, die bis vor kurzem verachtet wurde und die bis zur völligen Ignorierung reichte. Mit der Ignorierung des Unwissens beschäftigte sich ein verwandter Zweig, nämlich die IGNORANTISTIK. Genau zu wissen, was man nicht weiß, bedeutet jedoch, bereits manches über das zukünftige Wissen zu erfahren, wodurch dieser Zweig mit der Futurologie zusammenwuchs. Streckenmesser vermaßen die Länge der Strecke, die ein Suchimpuls zurücklegen mußte, um die gesuchte Information zu erreichen. Und die Strecken waren bereits so lang, daß man auf einen kostbaren Fund durchschnittlich ein halbes Jahr warten mußte, obwohl sich dieser Impuls mit der Lichtgeschwindigkeit bewegte. Sollte sich die Fahndungsroute innerhalb des Labyrinths der Wissensgüter im heutigen Tempo verlängern, hätte die nächste Generation der Spezialisten 15 bis 16 Jahre warten müssen, bevor die mit der Lichtgeschwindigkeit eilende Meute der Fahndungssignale eine vollständige Bibliographie für das beabsichtigte Unternehmen zusammengestellt hätte.
Aber, wie bei uns Einstein sprach, niemand kratzt sich, wenn es ihn nicht juckt, und so entstand zuerst die Domäne der Experten für Suchhunde und dann die der sogenannten Insperten, da die Not die Theorie der verdeckten Entdeckungen, also die durch andere Entdeckungen verdeckten Entdeckungen, ins Leben rief. So ist die Allgemeine Ariadnologie (General Ariadnology) entstanden, und es begann die Ära der Expeditionen in die Tiefen der Wissenschaft. Diejenigen, die sie planten, nannte man Insperten. Dies half etwas, aber nur für eine kurze Zeit, da sich die Insperten, weil sie auch Wissenschaftler waren, mit der Theorie der Inspertyse beschäftigen, die sich in die Labyrinthik und Labyrinthistik verzweigt, welche so verschieden sind wie Statik und Statistik, aber auch mit der umweggeführten und kurzgeschlossenen Labyrinthographie sowie mit der
Labyrintholabyrinthik. Bei der letzteren handelt es sich um die außerkosmische Ariadnistik, wie man
sagt. Das ist eine sehr interessante Disziplin, denn sie betrachtet das Weltall als eine Art kleines Regal oder Ablage in einer riesigen Bibliothek, die zwar real nicht existieren kann, was aber nicht von großer Bedeutung ist, denn die Theoretiker können sich doch nicht für eine banale, da physische Grenze interessieren, die die Welt der Insploration, also der Primären Selbstverzehrenden Invagination der Erkenntnis aufzwingt. Diese schreckliche Ariadnistik sah nämlich eine unendliche Anzahl weiterer derartiger
Invaginationen (Datensuche, Datensuche über die Datensuche und so weiter bis zu den infiniten Mengen des Kontinuums) vor. “
Ende dieses etwas zu langen Zitats…
Man soll, wie ich meine, diese aus dem litararisch-phantastischen Vorhaben übertriebene, also ein wenig groteske Possenreißerei verlassen, um das Problem zu überlegen, das wie ein unsichtbarer Geist (vorerst) über der ganzen Frage des globalen Informationsnetzes schwebt, das den Benutzern - gleich ob physischen oder rechtlichen Personen oder dem Interpol, Forschern oder Politikern, Kindern, Müttern, Reisenden, Geistlichen usw. usw. - ermöglichen sollte, die von ihnen gesuchten Information zu erreichen. Dieser “Geist”, den ich gerade erwähnt habe, stellt eine vielleicht kritische Frage, nämlich danach, ob das Netz, wenn irgendein Super-Internet die Fähigkeit des VERSTEHENS der allumfassenden Information hätte, die Zugänge zu den gesuchten Nachrichten erleichtern würde. Jetzt versteht nämlich - wie gesagt - ein Computersynzytium gar nichts, auch wenn es eine Million Mal größer als das bisher entstandene sein sollte, genausowenig wie dies irgendeine Bibliothek vermag, die als Büchersammlung auch von sich selbst heraus nichts begreifen kann.
Wenn man jedoch diese Frage stellt, muß man sich bewußt werden, daß man dadurch nicht nur ein den Computern mit beliebiger Rechenleistung unzugängliches Gebiet betreten hat, nämlich das der Semantik, d.h. der BEDEUTUNG, die in ihre jeden Sinn präzisierende Bereiche der Designation, Denotation und Konnotation einführt, sondern auch, was gleich zum Drama wird, auch folgende Frage eröffnet: Gibt es “Informationsmüll”, den man aus den Netzen beliebiger Struktur ausfegen müßte, oder gibt es ihn nicht?
Die Antwort muß leider durch den Relativismus erschwert werden. Was für einen Benutzer Müll darstellt, ist für einen anderen eine in jeder Hinsicht nahrhafte und vielleicht unentbehrliche Information. Nehmen wir an, daß es sich um einen Wissenschaftler handelt, der sich mit der Sammlung von Daten über Fälschungen von wissenschaftlichen Arbeiten beschäftigt, die es heutzutage, wie man hinzufügen kann, in Hülle und Fülle gibt und über die tatsächlich bereits Bücher geschrieben werden (ich habe bei mir gerade drei solche Titel). Ist ein Handbuch, das ein Verzeichnis der Methoden enthält, mit denen man ins Netz “einbrechen” und eine “fremde” Information zum Nachteil von Dritten oder Institutionen nutzen kann, Müll? Noch anders: Kann der Gedanke über den Einsatz von “Zensoren” im Netz selbst überhaupt zulässig sein?
Das ist aber schon, um Gottes willen, die Frage nach dem Schnee von gestern. Es gibt doch seit langem funktionierende “Zensurfilter”. Sie werden bloß von niemandem “Zensoren” oder “Wächter” genannt. Die informatorisch bestohlenen Institutionen (und wahrscheinlich auch Personen) installieren nämlich sogenannte Firewalls, also quasi “Brandmauern”, welche die eingehende Information filtern, während sie die aus der lokalen Quelle herausgehende frei durchlassen. Das Netz enthält also bereits Keime der Zensur. Und was “den Müll” anbetrifft, so ist das, was für einen Menschen “ Rauschen” (informationsstörend) ist, für jemand Anderen, z.B. einen Informatiker, der noise level in einem Information übertragenden Kanal untersucht, schon lange gerade die von ihm gesuchte und gemessene Information. Mit einem Wort: Es werden immer mehr Weichen oder vielleicht irgendwelche Weichenverwalter erforderlich, die fähig sind, die Informationsflüsse nach dem übergeordnet zu feststellenden Inhalt an die richtige Adressen zu leiten, so daß ein sich mit der Anatomie beschäftigender Fachmann keine Pornobilder betrachten müßte und ein mathematischer Statistiker nicht dazu verurteilt wäre, aus seinem Computer die millionenfachen Ergebnisse von Zahlenfolgen auszumisten, die irgendwelche Lottoziehungen darstellen. Diese Art Weichen werden immer mehr in dem Maße erforderlich, wie das Netz selbst und ihre Benutzer wachsen werden.
Ich muß zugeben, daß mich in den von mir gelesenen amerikanischen Veröffentlichungen, welche dem globalen Informationsnetz gewidmet sind, die Spontaneität der Entwicklung des Netzes, aber auch die Einstellung der Informatiker dazu überrascht hat. Vor allem scheinen es alle für eine selbstverständliche Evidenz zu halten, daß die englische Sprache die globale Sprache ist und das Problem der Zugänglichkeit von “virtuellen Bibliotheken” für (sagen wir) irgendwelche Japaner oder anderssprachige
Einwohner der Erde überhaupt nicht existiere (man weiß inzwischen gut, daß die Computerleistung für Übersetzungen aus einer in eine andere Sprache niedrig war und weiterhin bleibt). Darüber hinaus haben die Sorgen der Amerikaner einen sehr einseitigen, gewissermaßen augenblicklichen Charakter. Sie kümmern sich z.B. darum, daß Geschäfte über das Netz sehr einfach abzuschließen sind, es fehlt ihnen aber die Zahlungssicherheit. Man kann, einfach gesagt, auf diesen Wegen sehr leicht betrogen werden, und vor dem Mißbrauch können lediglich die Firewalls sowie andere ähnliche Verschlüsselungsbarrieren schützen, die notabene schließlich durchbrochen werden können, denn es ist immer sehr schwierig, eine hundertprozentige Sicherheit zu erreichen. Was ein Mensch als ein vollkommenes Schloß oder als vollkommene Kodierung konzipiert, wird von einem anderen so oder anders überlistet.
Man weiß dagegen nicht (schon drittens), auf welche Weise man auf den Netzwegen den Wissenschaftlern, die nach Informationen der durch Tausende von anderen Menschen in der Welt bearbeitenden Themen verlangen, “Dämme” einbauen soll. Im Bereich der populären Themen wie, sagen wir, AIDS oder energetische, ökologische und last but not least medizinische Aspekte der Atomenergie ist bereits eine Überschwemmung, eine echte Informationsflut entstanden. Daß sich die Sorgen eines konkreten Forschers, eines Verfassers von wissenschaftlichen Arbeiten, nicht aus den mangelnden Kenntnissen der Weltliteratur ergeben, sondern umgekehrt aus dem Überfluß, mit dem ihn ein richtig in das Netz des Internets gerichteter Computer zu überschütten kann, beseitigt das Problem wohl nicht. Zu wenig zu wissen, ist genauso schlecht, wie “zu viel” zu wissen. Vor
allem einfach deswegen, weil man die
Informationsleistungsfähigkeit der Netzkanäle
beispielsweise mit Glasfaserkabeln vergrößern kann, während unsere menschliche Leistungsfähigkeit noch immer die gleiche wie ungefähr vor 100 000 Jahren ist, als unsere Spezies im Verlauf der Millionen Jahre währenden Anthropogenese entstanden ist. Mit einem Wort, auf dem Entwicklungswege des Netzes treffen wir bereits auf nur teilweise vorhersehbare Hindernisse und stolpern über sie.
Hindernisse, die sich vielleicht in naher Zukunft ergeben werden, sind hingegen nicht leicht zu prognostizieren. Ich will an dieser Stelle nichts über eine eigentlich triviale Frage sagen, da durchaus nicht alle bedeutsamen Veröffentlichungen schnell in die Computerspeicher, die am Netz hängen, eingeführt werden und so die Ergebnisse der Forschungen, die für ein gegebenes Problem (z.B. AIDS) von lebenswichtiger Bedeutung sind, der Allgemeinheit nicht zugänglich sind. Wegen des Netzes existieren sie nur für bestimmte Spezialisten.
In dem ganzen, bislang lediglich angeschnittenen Komplex von Fragen, die sich im und um das Netz herum ausbreiten, ließ ich einen besonderen, leider bereits beträchtlich entwickelt Bereich außer acht, über den ich in der Vergangenheit nichts geschrieben habe, als ich mich des öfteren mit den Proben der prognostizierenden Erkundung der zukünftigen menschlichen Errungenschaften beschäftigt habe. Meine Blindheit in dem Bereich, über den ich jetzt ein paar Worte sagen will, wurde sicherlich von meinem übermäßigen, im Widerspruch mit der menschlichen Natur stehenden Rationalismus verursacht. Ich denke dabei an die merkwürdige Befriedigung, die aus Handlungen entsteht, deren Zweck eine uneigennützige Destruktion, also das Böse ist, das dem Verbrecher keinen, nicht einmal den kleinsten materiellen Nutzen bringt. Vielleicht ist gerade für diejenigen, die nichts Positives zu schaffen verstehen, das Zerstören ein Ersatz des Schaffens.
Dieses Phänomen war in der alten Geschichte immer vorhanden, in der elektronischen Epoche hat es sich jedoch in neuen Gestalten und mit neuer Wirksamkeit gezeigt, beispielsweise in Form von Computerviren, die außer der Beschädigung von Programmen zu nichts dienen (ich meine hier nicht solche Dietrichviren, aus denen ein Hacker irgendeinen, z.B. finanziellen, Vorteil ziehen kann). Es ist anzunehmen, daß gerade der Cyberspace nach dem, was BEREITS geschieht, ein Bereich der zerstörerischen Spiele und nicht nur der unschuldigen vom Typ eines “Herumkasperns” wird. Es ist offensichtlich angenehm, Menschen (nicht nur Frauen) mit frechen, beleidigenden Informationen uneigennützig zu überschütten (ein “Interesse” hat offenbar der elektronische Sadist). Die Schwierigkeiten bei der Identifizierung der Täter vergrößern das Ausmaß dieses widerwärtigen Treibens. Die uns bereits bekannten falsche Alarme über angeblich an öffentlichen Stellen gelegten Bomben erhalten jetzt eine neue Erweiterung. Ähnliche Unannehmlichkeiten verschiedenster Art warten bereits “in den Windeln”. Aber jedes Aufsehen, das dadurch in den Massenmedien (im Rundfunk oder Fernsehen) ausgelöst wird, wird auch zur quasiepidemieartigen Ausbreitung dieser “Seuche des Informationsbösen” beitragen.
Mache ich selbst es nicht richtig, wenn ich dieser Frage so viel Aufmerksamkeit schenke? Ich denke nicht, daß es so sein sollte. Die sich im unseren
Jahrhundert wiederholenden Völkermorde weisen leider auf eine positive Korrelation hin, die den Zivilisationsfortschritt mit der Zunahme der Gefahren verbindet. Die Menge der Tatsachen ist so groß, daß sie eine nur zufällige Verbindung des einen Trends mit dem anderen ausschließen. Die Computer, die in unser gesellschaftliches und privates Leben eingedrungen sind, bevor sie durch die Vernetzung die globalen Informationskurzschlüsse zu schaffen begannen, zeigten ihre für alle technische Produkte typische Zweischneidigkeit. Ihre vorteilhafte Vorderseite wird von der vielleicht manchmal sogar fatalen Rückseite begleitet. Die Zeit, als Jungen mit flinken Fingern alle “Schutzmauern” überlisteten und in die Zentralen von Generalstäben, also in die Zentralen des Weltuntergangs mit der Dunkelheit des nuklearen Winters, einschleichen konnten, ist noch nicht ganz vergangen. Vielleicht sollte man nicht mit so düsteren Akzenten diese Bemerkungen über das Internet beenden, das noch “in den Windeln” steckt. Aber es gibt noch einen Aspekt, an den man denken sollte.
Durch die Befürworter des globalen Computernetzes wird oft die Situation der nahen Zukunft angepriesen, in der ein Mensch von Zuhause aus Zugang zu allen Bibliotheken und auch Videobibliotheken der Welt haben kann und sich dem intensiven Gedankenaustausch mit einer großen Menge von Menschen dank der verbesserten Email widmen kann. Er kann Kunstwerke, die Bilder der Meister, betrachten und selbst ausgeführte Zeichnungen oder Bilder in alle Richtungen der Welt schicken; er kann intensiv wirtschaftlich tätig sein, irgendwelche Wertpapiere und Aktien kaufen und verkaufen; er kann entzückende
Personen des anderen Geschlechts verführen oder von ihnen verführt werden und manchmal wohl nicht sicher sein, ob er es mit erotischen Phantomen oder mit Personen aus Fleisch und Blut zu tun hat; er kann ferne Länder und ihre Landschaften betrachten … und so weiter. Er kann das alles ohne das kleinste Risiko (vielleicht ein finanzielles ausgenommen) machen, aber er bleibt doch einsam. Und das, was er erlebt, ist das Ergebnis einer riesigen Ausweitung, einer planetarischen Vergrößerung seines Sensoriums.
Falls das alles so ist, kann ich nur sagen, daß ich nicht für alle Schätze der Welt bereit wäre, mit einem so beglückten Menschen, der so wunderbare und gleichzeitig so illusorische Chancen der Erfüllung aller seiner Wünsche hat, zu tauschen. Sicherlich wird es schwierig sein, die elektronische Verbindung “mit allen und allem” einfach als einen technisch vervollkommneten Betrug zu bezeichnen, aber wo es in der Zukunft zum Austausch der wirklichen Natur mit ihrem vollkommenen Ersatz käme, wo der Unterschied zwischen dem, was natürlich, und dem, was künstlich ist, zu verschwinden beginnt, wird in der mit Elektronik und Zaubereien vollgestopften Einsamkeit vielleicht der depressive Wahnsinn lauern -als Verlangen nach Authentizität, als Durst nach echtem Risiko und nach wirklichem Kampf mit den Widrigkeiten des Lebens. So fatal wird wahrscheinlich diese Entwicklung nicht enden, doch über ihr mögliches Ziel sollte man schon heute, wenn auch nur einen Augenblick lang, nachdenken.
Stanislaw Lem 19.08.1997
Um die Welt und ihre Entwicklungen besser verstehen und steuern zu können, wird derzeit alles simuliert, was nur möglich ist. Stanislaw Lem fragt, ob Entstehungs- und Entwicklungsprozesse der menschlichen Kultur sich wegen ihrer Einzigartigkeit und Komplexität nicht prinzipiell der Simulation entziehen.
Gegenwärtig ist “die Computersimulation von allem”, von den Schicksalen der Welt in hundert Milliarden Jahren bis zur Evolution der Viren, zu einer Mode geworden. Kein Wunder also, daß MIT Press, der Verlag einer im übrigen erstklassigen Universität in USA, sich an das Redigieren und Veröffentlichen einer Serie von Werken machte, die der Kultursimulation gewidmet sind. Es ist schon merkwürdig, daß MIT Press mir, als dem “Kenner” (Gott weiß warum), eine Arbeit des Herrn N. Gessler mit der Bitte um eine Beurteilung zusandte. Da der Autor mir bereits vorher direkt eine Kurzfassung seiner Arbeit, die über das (digitale) Simulieren der Kultur geht, geschickt hatte, und ich diese Idee als nicht realisierbar betrachtete, schrieb ich dasselbe dem Verlag.
In meiner Antwort beschränkte ich mich auf die Gründe für die Unerfüllbarkeit des Projekts, aber ich habe dies auf eine Weise zum Ausdruck gebracht, die die Redaktion des Verlages verletzt haben könnte. Daher hatte ich auch das Gefühl, daß eine unbegründete Bewertung des Simulationsprojektes als reine Fiktion nicht ausreichend sei. Man sollte, wenn auch nur kurz, zumindest erklären, WARUM man weder die Kultur noch ihre Entstehung, ihre “Emergenz”, simulieren kann. Dieser Essay ist deshalb dem Nachweis der “Unmöglichkeit” solcher Unternehmungen gewidmet.
Man muß als erstes selbstverständlich erkennen, WAS die Kultur ist und woher sie kam, oder eigentlich, woher die Kulturen kamen, da es sich um eine Gruppe sich gabelnden Wege handelt, wobei einige Kulturen nach ihrer Entstehung entweder in andere Formen übergegangen oder ausgestorben und verschwunden sind. Die Wissenschaftler aus dem Kreis der Anthropologen, die Kulturen untersuchen, stoßen in ihren Arbeiten auf uralte Überreste von Kulturen, teilweise mit nicht entzifferbaren Zeichen von Schriften, die es auf der Erde nicht mehr gibt. Allgemein behandelte ich die Kultur vor einigen Jahrzehnten am Schluß meines Buch Phantastik und Futurologie, und ich werde mich selbst daraus zitieren, da das Vergehen der Zeit und das Hinzukommen neuerer Abhandlungen meine Ansichten in keiner Weise verändert haben.
Die Willkürlichkeit der Kultur
“Der Mensch ist nicht ein Tier, das auf die Idee gekommen ist, eine Kultur zu entwickeln. Es ist auch nicht ein Kampf zwischen dem instinktbeherrschten Althirn und dem Mantel des Neocortex - wie es Arthur Kostler will. Er ist auch nicht der “nackte Affe” mit dem großem Gehirn (Desmond Morris), weil er eben nicht ein Tier mit irgendeiner Beigabe ist. Ganz im Gegenteil: als Tier ist der Mensch unzulänglich. Das Wesen des Menschen ist die Kultur, nicht, weil es den Schöngeistern so gefällt. Diese Feststellung soll heißen, daß dem Menschen im Ergebnis der Anthropogenese die ererbten, ihm durch die Evolution auferlegten Verhaltensformen abhanden gekommen sind.
Die Tiere verfügen über ein System von Reflexen, das die Aggression innerhalb der Gattung in Zügeln hält und auch die Fortpflanzungsfähigkeit automatisch bei Beginn jeder Populationsexplosion hemmt. Die Wanderungen der Vögel und Heuschrecken werden von vererbten hormonalen Mechanismen gesteuert. Ein Ameisenhaufen, ein Bienenstock, ein Korallenriff -das sind Aggregationen, die in Jahrmillionen auf ein automatisches Gleichgewicht abgestimmt worden sind. Die Sozialisierung der Tiere unterliegt ebenfalls der vererbten Steuerung. Diese Art von Mechanismen gehen dem Menschen einfach ab. Da der Evolutionsprozeß ihm solche innere
Handlungszwänge, denen die Tiere unterliegen, entzogen hatte, war der Mensch durch seine biologische Beschaffenheit dazu verurteilt, eine Kultur zu entwickeln.
Der Mensch ist ein mangelhaftes Tier, d.h. daß er nicht in den tierischen Zustand zurückzukehren vermag. Kinder, die außerhalb des menschlichen Milieus aufwachsen, sind gerade darum auch in ihren biologischen Attributen zutiefst verkrüppelt: Es bildet sich bei ihnen weder eine der Gattungsnorm entsprechende Intelligenz, noch die Sprache, noch auch ein reicheres Gefühlsleben aus. Sie sind Krüppel, nicht Tiere. Auch der Genozid ist eine Form der Kultur. Es gibt in der Natur keinen “Zoozid” als Entsprechung zum Genozid. Es gibt also in der biologischen Beschaffenheit des Menschen keine Möglichkeiten, aus denen man eindeutig deduzieren könnte, wie er sein soll. Ohne sich über diesen Sachverhalt klar zu sein und rein spontan vorgehend, haben die menschlichen Gesellschaften Kulturinstitutionen hervorgebracht, die durchaus nicht die Verlängerung der biologischen Eigenschaften des
Menschen sind - obwohl sie diesen Eigenschaften als Rahmen, als Stütze und zuweilen auch als Prokrustesbett dienen.
Die biologische Beschaffenheit des Menschen reicht nicht dazu aus, seine ‘richtige’ Verhaltensweise zu bestimmen. Diese partielle Indeterminiertheit des Menschen wird von der Kultur durch Werte ergänzt, die sich nicht auf das ‘nackte Überleben’ reduzieren lassen. Der Mensch hat Institutionen, d.h. er hat vergegenständlichte Wert- und Zielstrukturen geschaffen, die über das Individuum und über die Generationen hinausreichen.
Das Paradoxon des Menschseins besteht darin, daß die biologische partielle Indeterminiertheit den Menschen zwingt, eine Kultur zu schaffen, und daß diese Kultur, sobald sie entstanden ist, sofort durch ihre Bewertungen zwischen den biologischen Eigenschaften des Menschen zu differenzieren beginnt. Die einen Körperteile werden auf dieser Wertskala höher, andere niedriger loziert; den einen menschlichen Funktionen wird Würde zugemessen, den anderen wird sie genommen. Es gibt keine Kultur, die den anthropogene tisch gegebenen Organismus des Menschen ‘demokratisch’, nach gleichem Recht, ohne die geringsten Vorbehalte gutgeheißen und damit den Menschen in seiner Indeterminiertheit, die ergänzt werden muß, zur Kenntnis genommen hätte. Jede Kultur formt und vervollständigt den Menschen, aber nicht entsprechend dem tatsächlichen Zustand, denn sie bekennt sich nicht zu den eigenen Erfindungen und Entscheidungen im Repertoire ihrer Willkürlichkeit; in vollem Ausmaß wird diese Willkürlichkeit erst von der Anthropologie entdeckt, wenn alle diese Kulturen, die in der Geschichte der Menschheit entstanden sind, erforscht.
Jede Kultur verkündet, sie wäre die einzige und unerläßliche - und genau auf diese Weise stellt sie ihr Ideal des Menschen auf. Dieses Ideal ist aber nicht in jeder Beziehung für den Menschen bequem. Dieses Phänomen der ‘Nicht-Angepaßtheit’ deutlich zu machen, ist außerordentlich schwierig, denn es hat einen kreisförmig-rückkoppelnden Charakter: Indem der Mensch sich ergänzt, also restlos determiniert, verlagert er gleichzeitig seine eigene Natur in der für diese Kultur charakteristische Richtung. Dadurch wird er zum Schuldner ihres Ideals, zu einem nicht ausreichend zahlungsfähigen Schuldner. Aber indem er sich in die von der Kultur gewiesene Richtung verlagert, betrachtet sich der Mensch von dieser neuen Warte aus; er sieht aus der Distanz der Religion, aus der Perspektive der Sitten und Bräuche, also nicht als ein bestimmtes materielles System, nicht als ein unvollständig programmierter Homöostat, der von der Kultur zusammengeflickt wurde, sondern als ein Wesen, das bestimmten axiologischen Gradienten unterworfen ist. Er hat sich diese Gradienten selbst ausgedacht, denn er mußte irgendwelche erfinden, und jetzt formen sie ihn, nun schon in Übereinstimmung mit der ihrer Struktur eigenen Logik und nicht mit der Triebstruktur des Menschen.” (Stanislaw Lem: Phantastik und Futurologie II, Frankfurt a. M. 1984 (polnische Erstausgabe 1964), S. 597-599)
Dieses etwas lange Zitat schien mir deswegen angebracht zu sein, weil es wenigstens grundsätzlich erklärt, warum man die Entstehung der Kultur nicht simulieren kann. Sagen wir, was noch hinzuzufügen ist. Ich stelle hier nur eine Konstante fest, aber kümmere mich nicht um die Entdeckung von Ursachen, aus denen sie entsteht. Es ist also so, daß eine Kultur mit der Herstellung von Werkzeugen im Eolithikum begonnen hat. Im Paläolithikum begann man diese bereits zu behauen. Und mit den
Werkzeugen und den Tätigkeiten, denen sie dienten, begann von Anfang an eine “Dunstwolke” der Immaterialität zu entstehen. An den Werkzeugen kann der Archäologe aber deren Spuren nicht bemerken, weil der “Dunst” mitsamt dem Tod der damaligen Menschen verschwindet.
Platonismus oder Konstruktivismus
Zuerst wird dieser “Dunst” in den GRÄBERN sichtbar, in die man zu den Leichen Waffen und Nahrung legte, damit der Verstorbene irgendwie sein Dasein nach dem Tod fortsetzen kann. Eine andere Erklärung für die Beigaben der Verstorbenen kennen wir nicht, und wir können uns auch keine andere vorstellen. Die ältesten Gräber sind ALS menschliche bereits vor mehreren zehntausend Jahren entstanden, obwohl es schwierig ist, ein genaueres Datum zu bestimmen. Gegenwärtig geht man davon aus, daß vor etwa 15000 bis 20000 Jahren die Ursprache entstanden ist, die sich dann schnell mit den Wanderungen der Urmenschen über (fast) die ganze Erdkugel in die “lokalen” Sprachen aufgespalten hat. Hier verbirgt sich schon eines der Rätsel, da man kaum glauben wird, daß ein Glaube in der vorsprachlichen Stummheit, also vor der Sprache, entstanden ist. Vor uns schießt daher ein Wald von Hypothesen hoch, in den wir aber nicht hineingehen werden, weil man nicht annehmen wird, daß vor der Erfindung der SCHRIFT flüchtige “metaphysische” Glaubensvorstellungen irgendwelche Spuren hinterlassen haben. Es sind zwar einige Spuren bis heute (z.B. Menhire) erhalten, aber sie sind auf der Skala der Anthropogenese nicht sehr alt. Weitere Forschungen der Archäologen werden uns darüber noch viel sagen können.
Der Stand der Dinge war also folgender: Wenn wir ein augenscheinliches und naives MODELL benutzen, daß es eine mit den Sinnen direkt wahrnehmbare Wirklichkeit, beispielsweise einen Fluß oder einen Vulkan, gab, dann haben die Urmenschen “über” oder “um” diese Wirklichkeit herum einen “ metaphysischen Dunst” “gelegt”, der sich im Laufe der Zeit in etwas “Heiliges” verwandelt hat. Zuerst gab es angeblich der Animismus, und jede Quelle oder jeder Vulkan hatte einen eigenen “Geist” oder “Gott”. Die “Dünste” der protokulturellen Metaphysik verwandelten sich jedoch sehr langsam in Götter, ähnlich wie etwa die über Jahrtausende entstandene Volkskunst langsam erstarrt. Später begannen sich die Dünste zu konzentrieren, so daß sich aus ihnen der Politheismus und schließlich auch der Monotheismus entwickelt hat.
Über etwas Selbstverständliches kann man immer zweierlei Meinung sein. Entweder ist man “Platonist” und sagt, daß es die Transzendenz (nach meiner Terminologie also die “Dünste”) zwar schon immer gab, aber daß die Menschen für sie noch nicht reif gewesen sind. Erst mit zunehmendem Alter scilicet wurden sie “klüger” und lernten das “Heilige” wahrzunehmen oder entdeckten, was es schon gab, als sie noch nicht auf der Welt existierten. Oder man kann der Meinung sein, daß die Menschen nicht das Heilige entdeckt, sondern es sich nur ausgedacht haben. Obwohl es Hunderte von Glaubensformen gab und gibt, erfolgte die Trennung zwischen dem Sacrum und dem Profanum in allen Glaubensformen auf ähnliche Weise. Abweichungen entstanden eher lokal durch die Bildung von Tabus, durch die Unterscheidung nach geschlechtlichen Werten und Geboten und ähnlichen Dingen. Aber die Zweiteilung gab es grundsätzlich überall.
Das ist so wie bei der Mathematik. Manche meinen, daß wir mathematische Welten entdecken, da sie bereits vor ihrer Darstellung existiert haben und es lediglich die Mathematiker als ihre Entdecker noch nicht gab. Das ist die Ansicht der Platoniker. Andere, z.B. die Schule der Konstruktivisten, verkünden, daß wir selbst, die Menschen, die Mathematik erfinden und ausbauen. Ich will hier keineswegs in den Streit, wer bezüglich der Mathematik und der Transzendenz Recht hat, eingreifen - nicht weil ich keine eigene Meinung hätte, sondern weil das von meiner Meinung völlig unabhängig ist. Ob die Transzendenz gegeben war oder ob sie ausgedacht worden ist - die Entscheidung für die Richtigkeit irgendeiner der Parteien ist für meine Gewißheit unerheblich, daß wir nicht imstande sind, die Emergenz der menschlichen Kultur zu simulieren. Wie könnte man diese “Zweiteilung” in ein Computerprogramm hineinbringen? Allein schon das, was nur individuell-voluntativ oder intentional ist, läßt sich nicht erfolgreich simulieren. Der Computer will “nichts”, und wir können es nicht schaffen, daß er “programmatisch” selbst etwas sich wünschen, begehren oder wollen könnte. Selbstverständlich kann man IMITATIONEN des “Wollens” herstellen, aber das gleicht der Annahme, daß ein authentisches lebendiges Weib und eines aus Holz das gleiche sei…