PRAKTISCHES

Menschen sollten viele Liter Wasser am Tag trinken

Vor einigen Jahren mussten sich die Professoren in ihren Vorlesungen an einer Universität daran gewöhnen, auf Studierende zu treffen, die häkelten oder strickten. Heute bringen viele eine große Plastikflasche mit Wasser mit, aus der sie immer wieder lust- und geräuschvoll trinken, denn sie scheinen sonst in der neunzig Minuten dauernden Veranstaltung zu verdursten. Auch unterwegs sieht man vor allem junge Menschen mit Wasserflaschen umherlaufen, an denen sie ab und zu nuckeln, und sie fühlen sich in ihrem Tun durch die Wissenschaft bestärkt. Schließlich hat sie herausgefunden, dass der Mensch mindestens acht Gläser Wasser – also rund zwei Liter – trinken muss, um nicht auszutrocknen. Und bei dieser Menge darf nach angeblicher Auskunft der Experten das morgendliche Kaffeetrinken nicht mitgerechnet werden – und erst recht nicht das spätere Bier, das man konsumiert, wie dann durch physiologische Erklärungen abgesichert wird. Oder hat man sich da einen Waschbären aufbinden lassen?
Rachel C. Vreeman und Aaron E. Carroll haben 2007 diese und andere verbreitete medizinische Mythen analysiert, die sogar von Ärzten selbst geglaubt und den Patienten weitererzählt werden. Auf den im British Medical Journal (BMJ) veröffentlichten Ergebnissen der Untersuchung beider Autoren beruhen die folgenden Erkenntnisse.
Die Quelle für die empfohlene Menge an Flüssigkeit steckt in Publikationen, die bereits kurz nach 1945 entstanden sind und den Weg in unsere heutigen Illustrierten gefunden haben. Bei der analysierten Durstlöschung ist übersehen worden, dass bei dem wissenschaftlich als nötig ermittelten Volumen das viele Wasser mitgezählt wurde, das in Nahrungsmitteln wie Obst enthalten ist; Suppen, Säfte, Milch, Kaffee, Tee und erst recht das geschleckte Eis am Stiel tragen selbstverständlich auch zu der Flüssigkeitsmenge bei. Nur wenn dies alles ignoriert wird, kommen die acht Gläser Wasser zustande, die als Zwangsverzehr oben zitiert wurden und für die es zudem nicht die geringste Evidenz auf empirischer Basis gibt.
Wann schläft ein Weiser? So lautet eine schöne Frage der östlichen Kultur. Wenn es dunkel wird? Wenn die Uhr eine bestimmte Zeit anzeigt? Nein, ein Weiser schläft, wenn er müde ist. Und wann sollte ein vernünftiger Mensch etwas trinken? Natürlich dann, wenn er Durst hat, und man sollte ebenso selbstverständlich damit aufhören, wenn der Durst gelöscht ist. Braucht man dazu tatsächlich ausführliche Studien und umständliche Darstellungen? Muss man auf eine leere Flasche schauen, um zu wissen, ob man genug getrunken hat?

Wir nutzen nur einen Bruchteil unseres Gehirns

Niemand bestreitet, dass ein Gehirn viele Möglichkeiten bietet und reichlich Regionen für Spezialaufgaben vorweist, die täglich kaum benötigt werden. Aber dass wir Menschen beim gewöhnlichen Gebrauch nicht einmal 10 Prozent davon nutzen, stimmt nicht und bleibt ein Gerücht aus nicht nachweisbarer Quelle. Der entsprechende Mythos wurde nämlich schon vor mehr als hundert Jahren in die Welt gesetzt, wie Vreeman und Carroll berichten. Das sollte uns trotzdem nicht in Versuchung bringen zu erklären, warum er sich so hartnäckig hält, weil zu viel Dummheit dabei im Spiel ist.
Die Behauptung vom ungenutzten Gehirn birgt zwei Probleme in sich: Das eine besteht darin, dass die Beweislast auf der falschen Seite liegt, und das zweite in der methodischen Schwierigkeit, die Untätigkeit eines Hirnareals nachzuweisen und ein beweisbares Schweigen der Nervenzellen als Verschwendung oder Leerlauf zu identifizieren. Neurobiologen, die Untersuchungen am Gehirn durchführen, befassen sich selbstverständlich mit den elektrisch aktiven Regionen im Kopf, und selbst wenn ein Teil der Neuronen und ihrer Verbände gerade keine spezielle Aufgabe erledigt, beinhalten sie bestimmte biochemische oder andere Aktivitäten, die zum Leben gehören. Die Zellen müssen ständig zum Stoffwechsel beitragen, und sie sollten sich stets in gespannter Bereitschaft halten, um ohne Verzug auf neue Situationen reagieren zu können.
Das Gerede vom kaum benutzten Gehirn stammt vermutlich von geschäftstüchtigen Leuten, die lernwilligen Menschen für viel Geld tollste Trainingsmöglichkeiten für das Kopfgewebe anbieten wollen und ihnen suggerieren, durch irgendeine Art von »Gehirnjogging« alles nachholen zu können, was sie bislang verpasst haben. Dabei ist, vom wissenschaftlichen Standpunkt aus betrachtet, vor allem eins klar: Alle Evidenz, die nicht zuletzt durch Untersuchungen von verletzten Hirnarealen gesammelt worden ist, deutet darauf hin, dass wir ständig sehr viel mehr als den genannten Bruchteil unseres Gehirns nutzen und zum Beispiel für Erinnerungen den ganzen Apparat einsetzen, der uns verfügbar ist.
Vielleicht hat die These von brach liegenden Arealen unter der Schädeldecke deshalb so viele Anhänger gewonnen, weil sie der Vorstellung entgegenkommt, dass uns nur ein Teil der Hirntätigkeit bewusst wird. Aber das Unbewusste ist kaum etwas, was man ungenutzt nennen könnte. Im Gegenteil! Es ist die ganze Zeit wach – ganz sicher auch in diesem Augenblick.

Haare und Fingernägel wachsen nach dem Tod weiter

In einigen literarischen Erzählungen wird geschildert, dass nach dem Tod Haare und Nägel weiterwachsen und ungeheure Dimensionen oder merkwürdige Formen annehmen. Komiker haben dieses Gerücht aufgegriffen und darüber Witze gemacht, in denen es beispielsweise heißt, dass nach dem Ableben zwar die Zahl der Anrufe und Briefe abnimmt, die der Verstorbene bekommt, nicht aber die Länge der Haare oder Nägel. Doch solchen skurrilen Vorstellungen zum Trotz – die Behauptung der Titelzeile ist blanker Unsinn, »pure moonshine«, wie es im Angelsächsischen heißt.
Die Medizin hat nämlich die Möglichkeit zu erklären, woher der Eindruck entsteht, dass Haare und Nägel nach dem Tod weiterwachsen. Er hängt mit der Flüssigkeit zusammen, die tote Körper verlieren. Sie dehydrieren, und dabei schrumpft die Haut, und wenn dies am Kopf oder an den Fingern passiert, sieht es bei oberflächlicher Betrachtung nach einer Verlängerung der dort befindlichen Haare oder Nägel aus. Wirkliches Wachstum gibt es aber nicht. Die Hormone, die dazu nötig sind, werden nach dem Ableben nämlich nicht mehr produziert.

Durch Rasieren wachsen Haare schneller und dunkler nach

Die Vorstellung, dass Haare dort schneller und sogar dunkler nachwachsen, wo sie abrasiert worden sind, hält sich hartnäckig, obwohl sie bereits 1928 in einem klinischen Versuch als unhaltbar erwiesen wurde. Dabei könnte jeder von uns die Behauptung im Selbstversuch nachprüfen – und also widerlegen -, was die Frage aufwirft, warum dies nicht unternommen wird. Man kann schon vor dem Frühstück Wissenschaft treiben – und bereit sein, seine lieb gewonnenen Vorurteile abzulegen.
Studien aus jüngerer Zeit zeigen deutlich, dass das Rasieren weder die Stärke noch die Dicke des wachsenden Haars beeinflusst. Allerdings – die sprießenden Haare sehen anfänglich etwas dunkler aus, was aber leicht zu erklären ist. Die nachwachsenden Haare waren bis dahin noch keiner Sonnenstrahlung ausgesetzt. Sie haben ihr Bleichen noch vor sich, was aber nicht lange auf sich warten lässt. Und mehr gibt es dazu nicht zu sagen.

Lesen bei schwachem Licht schadet den Augen

Die eindringlich ausgesprochene Warnung habe ich des Öfteren als Kind gehört. Damit war das Verbot gemeint, eine funzelige Taschenlampe zum Lesen unter der Bettdecke zu verwenden. Doch diese Behauptung ist ebenso unsinnig wie eine andere Legende, die man in unserem Familienkreis erzählte und die davor warnte, Augen zum Spaß so zu verdrehen, dass es so aussehe, als ob man schielte. Wenn die Augäpfel noch in dieser Position seien, während es zwölf schlage, dann bleibe uns das Schielen für den Rest unseres Lebens erhalten.
Aber Schluss mit diesem Blödsinn und zurück zur schwach brennenden Taschenlampe. Das dämmrige Licht erschwert es natürlich, den oft klein gedruckten Text exakt zu fokussieren, und die Augen blinzeln im schummrigen Licht weniger, als sie es bei normaler Helligkeit tun. Aber ein bleibender Schaden entsteht dadurch nicht, wie zahlreiche Studien belegen.
Das Gerücht mit dem schädlichen schwachen Licht taucht übrigens stets in Verbindung mit Lesen auf und findet kaum Erwähnung etwa beim Betrachten von dunkel gehaltenen Aquarellen. Will man da nicht so sehr schützen als vielmehr etwas verbieten? Vielleicht schadet das Lesen mehr als das gedämpfte Licht, wobei diese Anmerkung auch deshalb gemacht wird, weil vor kurzem in einer Zeitung für kluge Köpfe ein Experte die Möglichkeit andeutete, dass Lesen ein Missbrauch des Gehirns sei. Die Evolution hat die dazugehörigen Areale jedenfalls nicht entworfen, um diesen Text hier lesen zu können – ganz gleich, wie hell es dabei wird.

Mobiltelefone stören Geräte im Krankenhaus

Mobiltelefone können nerven. Sie breiten ungeniert das Private öffentlich aus, stören die Ruhe und vieles andere etwa auf Zugreisen, und die Geräte sollen aus guten Gründen abgeschaltet werden, wenn es ans Fliegen geht. Beträchtliche Aufmerksamkeit über diese Banalitäten hinaus hat die Behauptung erfahren, dass Handys in Krankenhäusern zu erheblichen Störungen – sogar in einigen Fällen mit tödlichen Folgen – dadurch führen können, dass ihr Betrieb das Funktionieren von Infusionspumpen, Herzmonitoren und anderen elektrisch betriebenen lebensrettenden oder -erhaltenden Maschinen beeinträchtigt. Im vergangenen Jahrzehnt veröffentlichte das Wall Street Journal sogar einen Beitrag zu diesem Thema auf der Titelseite mit der Folge, dass die Behörden beunruhigt waren und Mobiltelefone in Krankenhäusern verboten wurden.
Tatsächlich haben sämtliche Studien mit wissenschaftlicher Qualifikation vergeblich nach einem Einfluss von Handys auf medizinisches Gerät geforscht, und die Krankenhauspraxis ermutigt die Ärzte derzeit eher dazu, ihre Mobiltelefone zu nutzen. So können sie möglichst rasch und direkt mit Kollegen in Kontakt treten, um sich zu beraten. Auf diese Weise gelingt es nachweislich, die Fehlerquote bei Diagnosen oder Therapieanweisungen zu verringern.

Die meiste Körperwärme verlieren wir über den Kopf

Nach ihrem ersten erfolgreichen Entlarven (»debunking«) von medizinisch relevanten Mythen haben sich Rachel Vreeman und Aaron Carroll ermutigt gefühlt, eine zweite Reihe solcher Legenden zu widerlegen. Ihre Erkenntnisse und Befunde haben sie – erneut im Fachblatt British Medical Journal – kurz vor Weihnachten 2008 vorgelegt.
Alle Mythen haben mit der Weihnachtszeit zu tun, die in unseren Breiten als süß (Zuckerwaren) und dunkel (Nacht) zugleich daherkommt. Daraus haben sich offenbar Vorstellungen der Art ergeben, dass Süßigkeiten auf der einen Seite Kinder hyperaktiv machen und dass die Dunkelheit (verbunden mit Einsamkeit) die Selbstmordrate über die Feiertage in die Höhe treibt. Beide Behauptungen halten aber nicht stand, wenn man sie unter die Lupe der Empirie nimmt.
Was den Zucker angeht, so werden Kinder keinesfalls durch ihn und seine Kalorien unruhiger im Lauf der Weihnachtsfeiertage. Allerdings gehört zu den Festgewohnheiten, dass alle Beteiligten den lieben langen Tag in zumeist engen und vollgestellten Zimmern hocken. Die Eltern haben dann zunehmend den Eindruck, der Bewegungsdrang der Zöglinge sei auf die Süßigkeiten zurückzuführen, deren Genuss ebenso zum Festritual gehört. Dieser Grund steckt allein im Kopf der Eltern.
Was den Mythos von den erhöhten Selbstmordraten angeht, so kommen die Statistiken zu höchst unterschiedlichen Ergebnissen, und zwar in Japan zu anderen als in den USA und dort wieder zu anderen als in Irland. In Irland wurde zwar tatsächlich ein leichter Anstieg der Selbstmordrate an Feiertagen festgestellt, aber nur bei Frauen. Bei Männern ist eher eine Abnahme der Rate zu verzeichnen. Die wissenschaftlich zuverlässigen Zahlen zeigen übrigens, dass – trotz des Vorurteils des gesunden Menschenverstands – Selbstmordraten generell gerade nicht in den dunklen Monaten mit den langen Nächten zunehmen. Sie steigen – im Gegenteil – bevorzugt in den Sommermonaten und im Herbst an, wobei man die Daten aus Ungarn von den Daten aus Finnland und so weiter unterscheiden müsste.
Nun aber zum Verlust an Körperwärme im Winter, den wir dadurch bekämpfen, dass wir Hüte, Kappen und Mützen aufsetzen. Natürlich ist die Kopfhaut gut durchblutet, aber stimmt es, wenn man uns mitteilt, dass Menschen knapp 50 Prozent ihrer Körperwärme über den Kopf verlieren?
Die Antwort lautet Nein. Über den Schädel strömt ebenso viel Wärme ins Freie wie über irgendeinen anderen Teil unseres Körpers, nur dass wir Beine, Arme, Hände und Füße gewöhnlich bekleiden und nicht der kalten Luft aussetzen. Insofern schadet es nicht, wenn wir eine Kopfbedeckung tragen. Manche fühlen sich damit wohler und ersparen sich Erkältungen in der kalten und windigen Jahreszeit. Aber von einem unverhältnismäßigen Hitzeverlust durch die Schädeldecke kann wissenschaftlich keine Rede sein.

Essen in der Nacht macht dick

Nicht nur zur Weihnachtszeit, sondern allgemein kann es vorkommen, dass wir uns – etwa nach einem Theaterbesuch oder nach einem Vortrag – noch zu später Stunde an einen gedeckten Tisch setzen, um zu Abend oder besser zur Nacht zu essen. Und sobald die Speisen serviert werden, erinnern wir uns an die Stimme unserer Mutter, die stets eindringlich davor gewarnt hat, in den letzten Stunden vor Mitternacht noch etwas zu sich zu nehmen. Man würde schlecht schlafen und besonders dick werden, wenn man zu vorgerückter Stunde speist und sich anschließend sofort hinlegt (ohne einen Verdauungsspaziergang gemacht zu haben). Das meinen die Mütter und der Volksmund, und wir fragen: Was sagt die Wissenschaft dazu?
Sie sagt, dass es dafür keinerlei Beleg gibt. Essen in der Nacht macht dann dick, wenn man zu viel isst, aber das hat nur mit der Zahl der Kalorien und nichts mit der Zeit zu tun, zu der man sie zu sich nimmt.
Wer jetzt fragt, ob es unabhängig davon Essgewohnheiten gibt, die besonders mit einer Gewichtszunahme korreliert sind, dann lautet die Antwort: Ja, und zwar gleich zweimal. Eine schlechte Angewohnheit besteht darin, mehr als dreimal am Tag mehr als nur eine kleine Zwischenmahlzeit zu sich zu nehmen, bei der man wenig zu kauen hat; die andere ist die, das Frühstück ausfallen zu lassen – was manche aus Eile oder vielleicht gezielt aus Diätgründen tun. Letzteres ist vergeblich. Denn wer sich keine Zeit für das Frühstück nimmt, schaufelt im Lauf des Tages mehr in sich hinein, als er an seinem Beginn gespart hat, wie sämtliche Studien zu diesem Thema nachgewiesen haben. Also: Selbst wer nachts noch üppig getafelt hat, der sollte das Frühstück trotzdem nicht auslassen.
Übrigens – nach einem »late night dinner« wachen wir oft mit einem Kater auf, den wir gern wieder loswürden, und diesbezüglich zirkulieren Tausende von Vorschlägen, die als bewährte Rezepte ausgegeben werden. Sie taugen nichts. Gegen den »Hangover« gibt es nur ein Rezept, das funktioniert. Es heißt abwarten (und Tee trinken, wenn man ihn mag). Alles andere ist verlorene Liebesmühe.

Im Schlaf sind wir passiv

Es hat lange gedauert, aber dann hat die Wissenschaft in Person des Wiener Nervenarztes Baron Constantin von Economo in den ersten Jahrzehnten des 20. Jahrhunderts bemerkt, dass man »den Schlaf als aktiven, vom Gehirn gesteuerten Prozess« zu begreifen hat. Und heute wissen wir, dass es ein eigenes Einschlafzentrum gibt, das uns aktiv und gezielt vom Wach- in den Schlafzustand befördert – und den brauchen wir ganz dringend. Unser Gehirn muss in dieser Phase der äußerlichen Ruhe nämlich eine ungeheure Menge bewerkstelligen, und wer darüber mehr wissen will, als hier in aller Knappheit dargestellt werden kann, der sei auf Das Schlafbuch von Peter Spork verwiesen, das an vielen Beispielen und aus unterschiedlichen Perspektiven erläutert, »warum wir schlafen und wie es uns am besten gelingt«.
Wer zu großzügig dem Alkohol zuspricht, erschwert es seinem Körper, gut durch die Nacht zu kommen. Wir schlafen zwar rasch ein, wälzen uns dann aber hin und her, und diese Unruhe lässt uns in einem elenden Zustand aufwachen. Das ist leicht zu verstehen, wenn wir akzeptieren, was der Schlaf ist, nämlich »ein unerhört komplexes Zusammenspiel zahlloser Prozesse«, wie Spork den Berliner Schlafforscher Dieter Kunz zitiert, der zugleich darauf hinweist, dass das schlafende Gehirn ungeheuer arbeitet und dabei gewaltige Mengen an Energie verbraucht (weshalb es nach dem im letzten Kapitelchen erwähnten guten Frühstück verlangt).
Leider kann die Wissenschaft immer noch nicht sagen, »welches die primäre – die allererste und somit wichtigste – der vielen Aufgaben des Schlafs« ist, wie uns Das Schlafbuch mitteilt, aber klar ist, dass das Schlafen der Kleinkinder eine andere Funktion hat als das von Erwachsenen. Im ersten Fall geht es mehr um die Entwicklung und Formbarkeit des Gehirns und im zweiten Fall eher um das (biochemische und physiologische) Gleichgewicht des Körpers und die mögliche Befreiung von dem, was Forscher die synaptische Last nennen. Synapsen stellen Kontakte zwischen Nervenzellen her, und im Lauf eines Tages werden – im Rückblick offenbar unnötig – viele davon hergestellt.
Um das Gehirn in Form zu halten, muss möglichst eine große Zahl der Synapsen wieder abgebaut werden, und dies erledigt das Gehirn für uns im Schlaf. Es sorgt bei diesem Tun für einen Zustand, in dem nahezu alle Zellen des Großhirns gemeinsam erregt oder in Ruhe sind, und damit liegt der perfekte biochemische Zustand zur Eliminierung von Synapsen vor.
Die Schlafforscher sind inzwischen der Ansicht, dass der ursprüngliche Sinn des Schlafs »die Erleichterung der synaptischen Formbarkeit« ist, was man auch so ausdrücken kann, dass »Schlafen für die Unterstützung des Lernens« eingerichtet wurde. Aus diesem Grund ist auch dringend zu dem kurzen Mittagsschläfchen zu raten, das wir gerne halten würden, wenn uns die Umstände und die Gesellschaft daran nicht dauernd zu hindern versuchten. Das Nickerchen gilt vielen noch als Zeit der Faulheit und Disziplinlosigkeit, aber die Forschung hat andere Vorstellungen entwickelt: Tatsächlich stellen erste Firmen in den USA und Japan ihren Mitarbeitern Zeit und Platz für das »Power-Napping« zur Verfügung.
Diese Pausen sind wichtig für unser Leistungsvermögen. Wir verstehen jetzt wissenschaftlich, was der Schriftsteller John Steinbeck schon vorher – wahrscheinlich beim eigenen Tun – erfahren hat. »Die Kreativität beginnt mit einer Pause.« Schlafen wir, wenn uns danach ist. Es muss ja nicht gerade in diesem Augenblick sein.

Das Immunsystem führt einen Krieg im Körper

Um an den Schlaf anzuknüpfen: Die Wissenschaft kann nachweisen, dass wir schlafen, um uns erinnern zu können. »Das gilt nicht nur für den Geist«, wie Peter Spork schreibt, »sondern auch für den Körper: Die Gedächtniszellen des Immunsystems brauchen den Schlaf, und auch das innere Gleichgewicht, zu dem unsere Stoffwechsel- und Organsysteme dank der Erholung im Schlaf immer wieder zurückfinden, ist eine Art Erinnerung.«
Es ist wohltuend, im Zusammenhang mit dem Immunsystem Ausdrücke wie Schlaf und Gleichgewicht zu hören, da sonst eher von einem Krieg im Körper die Rede ist, der da gegen böswillige und auf ermattende Entzündung angelegte Eindringlinge von außen geführt wird. Unser Körper baut eine Immunabwehr auf, in der Killerzellen und Fresszellen an die Front geschickt werden, um Fremdinvasionen abzuwehren.
Natürlich schützt uns das Immunsystem vor Infektionen und befreit unseren Körper von Mikroorganismen, die nichts im ihm zu suchen haben – so erklärt sich ja auch der Begriff, der sich vom lateinischen Wort »immunis« herleitet, was so viel wie rein und unberührt bedeutet. Aber dass dabei ein Krieg stattfindet und Abwehrschlachten geführt werden, hat zunächst weniger mit dem biologischen Geschehen und mehr mit den politisch-historischen Umständen des 19. Jahrhunderts zu tun, unter denen die Wirkung des Immunsystems zum ersten Mal in das experimentelle Arbeitsfeld der medizinischen Wissenschaft gelangte. Nationale Begeisterung und militärischer Stolz prägten das Denken in den 1880er Jahren, als die immunologische Forschung in Frankreich (Louis Pasteur) und Deutschland (Emil von Behring) ihren Anfang nahm, also ausgerechnet in zwei Ländern, die damals sorgfältig und konsequent ihre sogenannte Erbfeindschaft pflegten.
Natürlich muss ein Körper dafür sorgen, in ihn eindringende (»fremde«) Zellen zu identifizieren und abzufangen, um seinen »eigenen« Zellen die nötigen Spielräume zu geben, die jedes Leben braucht. Aber wenn das dafür zuständige Immunsystem in unserer heutigen Zeit zum ersten Mal erforscht und sein wirksamer Aufbau (aus Zellen und Molekülen) identifiziert würde, fielen den dafür verantwortlichen Wissenschaftlern wahrscheinlich andere Metaphern ein. Es wären eher ökologische Metaphern, da es um die Aufrechterhaltung einer lebens- oder überlebensfähigen Ordnung geht, die unvermeidlich im Kontakt mit der Außenwelt steht. In ökologischen Bildern geht es weniger um Siegen und Besiegen und mehr um Erhalten und Bewahren, und mir scheint dies die Hauptaufgabe der Einrichtung des Körpers namens Immunsystem. Das so bezeichnete funktionsfähige Ganze vermag zudem, Mikroorganismen wiederzuerkennen, wenn sie ein zweites oder drittes Mal auftauchen. Das Immunsystem verfügt also nicht nur über die Fähigkeit des Erkennens (zumindest in diesem molekularen Zusammenhang), es besitzt auch ein Gedächtnis und kann sich erinnern. Das erlaubt den Hinweis auf die Hypothese, dass sich unser Körper auf diese Weise ein zweites – sehr bewegliches – Gehirn zugelegt hat, und das sollte auch mehr Interesse an der Haushalts- und weniger an der Kriegsführung haben. Das Immunsystem bietet uns die Möglichkeit, biochemisch zu sein und zu werden, wer und was wir unter molekularem Aspekt sind. Einen Krieg führt es deswegen nicht. Der würde nur stören.

Viren sind Feinde des Menschen

Krieg führt man gegen Feinde, und damit sind wir bei der Einschätzung der Viren, die bei den meisten Menschen reflexartig den Begriff des Krankheitserregers evozieren. Viren verbreiten Krankheiten – Grippe und AIDS zum Beispiel, und an der Entstehung von Krebs sind diese Gebilde auch beteiligt, die von Biologen als Grenzfälle angesehen werden. Sie bewegen sich zwischen dem Bereich des Lebens und dem des Nichtlebens, ohne einem der beiden Bereiche fest zuzugehören. Viren sind – in aller Kürze – verpacktes Erbmaterial, das erst dann seine Funktion übernehmen und erfüllen kann, wenn es in eine Zelle eingedrungen ist, die zu einem Lebewesen gehört. Viren allein leben nicht, Viren in Zellen hingegen beginnen mit ihrem Eigenleben – und sie tun dies offensichtlich bevorzugt zum Schaden des von ihnen infizierten Organismus.
Wer nur dies von Viren weiß, dem muss umso überraschender die Überschrift »Mein Freund, das Virus« erscheinen, unter der das Klinikum rechts der Isar in München im Februar 2006 sein Forschungsprojekt vorstellte, wie Viren wirksam zur Bekämpfung von Leberkrebs eingesetzt werden können. Einer Gruppe von Ärzten und Biowissenschaftlern um den Virologen Oliver Ebert gelang es, ein Virus namens Vesikuläres Stomatitis Virus so zu bearbeiten, dass es Tumorzellen befallen und auflösen konnte, ohne die gesunden Zellnachbarn mit in den Tod zu reißen.
Viren haben sich überhaupt in der medizinisch motivierten Forschung als nützlich erwiesen, die sich bemüht, Übertragungen von Genmaterial vorzunehmen. Die dazu benötigten Genfähren spürt sie in Form von Viren auf, die offenbar auch ohne Ermutigung durch den Menschen Wege gefunden haben, ihr Erbmaterial in anderen Genomen zu verbreiten. Zu den überraschenden Einsichten des zu Beginn des 21. Jahrhunderts mehr oder weniger abgeschlossenen Humanen Genomprojekts, durch das die Erbinformation von menschlichen Zellen lesbar gemacht wurde, gehört die Feststellung, dass knapp 10 Prozent unseres Erbmaterials von Viren stammen. Mit anderen Worten, Viren haben maßgeblich zur Evolution des Menschen beigetragen, auch wenn wir noch nicht sagen können, was dabei im molekularen oder zellulären Detail abgelaufen ist.
Und um ein letztes Beispiel für die erwünschte Qualität von Viren anzuführen, sei auf die »guten« Zwischenformen des Lebens hingewiesen, die vor einigen Jahren im Meerwasser entdeckt wurden und inzwischen bei der Hummerzucht Einsatz gefunden haben. Neben Viren, die menschliche Zellen angreifen, gibt es auch Viren, die Bakterien bevorzugen. Diese Sorte wird inzwischen verwendet, um die gezüchteten Hummer von Bakterien zu befreien, die für die Schalentiere (und damit für die Gourmets unter uns) schädlich sind.
Übrigens – die weitaus meisten Viren kennen wir noch nicht. Vielleicht finden wir dabei noch mehr Freunde, die unserem Überleben zuträglich sind. Vielleicht aber auch nicht.

Krankheiten haben immer mit einem Verlust an Ordnung zu tun

Wer den folgenden Satz liest und kein Experte ist, wird ihm sicher zustimmen: »Gesundheit stellt eine stabilisierte Ordnung der Lebensvorgänge dar, und Krankheit kommt durch eine Störung oder einen Verlust dieser Ordnung zustande.« Tatsächlich hat sich jedoch herausgestellt, dass Organismen durch ihre Komplexität Eigenschaften aufweisen, die den Übergang von geordneten in ungeordnete Zustände ermöglichen, die inzwischen als »chaotisch« bezeichnet werden. Der Zustand der Gesundheit enthält deshalb sowohl Elemente der Ordnung als auch des Chaos, und für Krankheiten gilt dasselbe.
Als Beispiel für eine Krankheit, die durch eine erstarrte Ordnung zu kennzeichnen und in der es im Gewebe zu einem Verlust der Möglichkeiten gekommen ist, chaotisch zu reagieren, kann die Osteoporose genannt werden, von der unsere Knochen betroffen sind. Ihre Masse schwindet. Die Untersuchungen zeigen, dass neben vielen anderen Parametern die Konzentration eines Hormons von Bedeutung ist, das als Parathormon bekannt ist, aus der Nebenschilddrüse stammt und den Knochenumsatz reguliert (wozu viele biochemische Details gehören, auf die wir hier nicht eingehen können).
So merkwürdig es klingen mag: Bei gesunden Menschen schwankt die Konzentration des Hormons regellos und chaotisch, während sie bei betroffenen Patienten stabil (starr) bleibt. Der Schluss liegt auf der Hand, dass normales Knochenwachstum an die chaotischen Schwankungen eines Hormons gebunden ist, deren Versiegen zur Krankheit führt. Ähnliche Phänomene – Verlust an schwankendem Chaos und Erstarren von stabiler Ordnung – können auch bei anderen endokrinen Erkrankungen nachgewiesen werden, und sie finden sich darüber hinaus bei Störungen der Herztätigkeit und der Atmung. Daraus darf natürlich nicht geschlossen werden, dass Chaos gesund ist. Aber ein bisschen Unordnung gehört zum Leben wohl dazu. Starrheit und Sturheit sind offenbar auch dann schlecht, wenn sie auf einer Ordnung aufbauen.

Gene programmieren das Leben

In den Gesprächen, in denen der Philosoph und Ideenhistoriker Raymond Klibansky seine Erinnerung an ein Jahrhundert schildert, kritisiert er die Soziologen, die nach Max Weber kamen. Für sie – so Klibansky – bestand die Aufgabe ihrer Wissenschaft schlicht und einfach darin, »die Geschichte im Lichte bestimmter Begriffe zu bemeistern«. Wenn einer von ihnen »einen bestimmten Begriff benennen konnte, der die Phänomene zu erfassen schien, glaubte [die Zunft] schon, sie zu begreifen«.
Was Klibansky für die Soziologen des 20. Jahrhunderts feststellt, lässt sich spielend leicht auf die Biologen des 21. Jahrhunderts übertragen, die zu viel mit den Genen hantieren und sich zu wenig über ihre Komplexität wundern. Wenn sie einen Begriff zur Verfügung haben, der nicht ganz an den Phänomenen vorbeigeht, glauben sie schon, etwas von der Sache verstanden zu haben. Als konkretes Beispiel für diese Behauptung soll der Begriff des genetischen Programms dienen, ohne den scheinbar nicht begriffen werden kann, wie sich das Leben entwickelt.
Das »Programm« hatte zu Beginn dieses Jahrhunderts zum ersten Mal Hochkonjunktur, als medienversessene Mediziner sogar in der Tagesschau ankündigen durften, einen Menschen klonieren zu wollen. Das Wort »Programm« nehmen wieder alle Experten in den Mund, seit die Möglichkeit erörtert wird, auf ethisch unbedenkliche Weise Stammzellen zu gewinnen, die zu therapeutischen Zwecken genutzt werden sollen.

Neu-, um- und reprogrammieren

Wann immer sich einer der Experten gegen das (wirklich widerliche) Klon-Vorhaben äußerte und dabei weder auf moralische noch auf ethische Bedenken einging, sondern nur wissenschaftliche Sorgfalt und Machbarkeit im Auge hatte, griff er zu ein und demselben Begriff, eben dem des Programms beziehungsweise der Programmierung. Ian Wilmut, der geistige »Vater« von Klonschaf Dolly, warnte darum zum Beispiel dringend davor, seine Methode auf den Menschen zu übertragen, weil in einem klonierten Embryo »die Neuprogrammierung des übertragenen Zellkerns« anders vor sich geht als bei der normalen Befruchtung. Zwar habe man die »Zellprogrammierung« in einem Embryo noch nicht ganz verstanden, aber bei der »Reprogrammierung seiner Gene« könnten sich sicher leicht Fehler einschleichen, stellten sich Wilmut und seine Kollegen vor. Und auf diese mechanische Weise schienen sie mehr oder weniger einfach die Beobachtungen erklären zu können, dass die meisten klonierten Tiere während der Embryonalentwicklung absterben oder krank zur Welt kommen. Deshalb liegt die Vermutung nahe, dass dies wahrscheinlich erst recht mit klonierten Menschen passieren wird.
In letzter Zeit geht es weniger um Menschen und mehr um Stammzellen, und zwar um künstlich hergestellte. Wer zum Beispiel aus Hautzellen die potenten Stammzellen gewinnen will, muss seinem Ausgangsmaterial die Spezialisierung nehmen, die es im Lauf der Entwicklung erreicht hat, und diesen Schritt beschreiben, den Forscher einstimmig als »Reprogrammierung« bezeichnen, also mit demselben Wort, das Wilmut vor Jahren, ohne es zu verstehen, in die Debatte geworfen hat. Ob ein solches Resetprogramm funktioniert, darf man die Biologen nicht fragen. Sie machen sich nämlich gar keine Gedanken über ihre Metaphern und meinen unbedacht und unbegründet, dass die Natur nach dem vorgeht, was Softwareingenieure Programm nennen. In diesem Beitrag soll gezeigt werden, dass dies nicht der Fall sein kann.
Leider haben wir uns an das Programm gewöhnt, wie man inzwischen in allen Zeitungen nachlesen kann und wie auch zur Zeit der Niederschrift dieses Beitrags der umtriebige Biochemiker Craig Venter von sich gibt, der sich selbst als Apparat vorstellt, der seine Software lesen kann. An dieser Stelle sind die Journalisten auch mit den Wissenschaftlern einig. Sie singen alle zusammen das Hohelied des genetischen Programms, das es erlaubt, das Leben zu reprogrammieren, wobei es manchmal auch neu- oder umprogrammieren heißt. Die Sänger geben sich große Mühe mit der Stimmlage und merken gar nicht, dass sie dabei von einer Sache künden, die es im Leben der Zellen so gut wie gar nicht gibt.
Im Alltag kennen wir Programme aller Art – Kino-, Fernseh-, Reise-, Partei- oder Waschmaschinenprogramme -, und es steht außer Frage, dass der Begriff in diesen Verbindungen sinnvoll zu verstehen ist. Dies gilt auch noch bei einem Computer, der aus Software und Hardware besteht und also ein Gerät ist, das seine Aufgaben zum Beispiel mithilfe eines Rechenprogramms oder durch Anwendung eines Schreibprogramms ausführt. Zweifellos können sich sowohl Maschinen als auch Menschen – jeder auf besondere Weise – an Programme halten, und dies ist es, was den Begriff allzu leicht verständlich und somit allzu verführerisch macht.

Wo bleibt das genetische Programm?

Aber kommen wir damit auch bei den Zellen und ihren Genen weiter? Gibt es auf dieser Ebene tatsächlich so etwas wie ein genetisches Programm, das vom Beginn des Lebens an funktioniert und im Verlauf der Entwicklung dauernd erneuert wird, während der Embryo wächst und seine Zellen sich wandeln?
Die Antwort heißt so eindeutig Nein, dass man sich wundern muss über die Hartnäckigkeit, mit der sich der Begriff hält. Der Verdacht will nicht weichen, dass hier neben einer zwar verständlichen, aber verantwortungslosen Gedankenlosigkeit auch das dringende Bedürfnis der Wissenschaft nach Popularität eine Rolle spielt. Computerprogramme sind eben in Mode, und an der möchte man doch wenigstens ein wenig partizipieren. Doch leider zeigt die Anwendung des Programmbegriffs auf die Entwicklung des Lebens nicht, wie gut Biologen komplizierte Zusammenhänge erläutern können. Sie offenbart vielmehr das Gegenteil, nämlich wie phantasielos viele Genetiker ihre Gegenstände betrachten und beschreiben. Statt sich Gedanken über die mannigfachen Regelmäßigkeiten zu machen, mit der die Natur ihre Vielfalt erreicht, und sich zu bemühen, zwischen verschiedenen Ordnungsmechanismen Unterschiede zu erkennen, decken solche Genetiker alles Geschehen mit dem einen Begriff der Programmierung zu und verstehen den Menschen in einem Maschinenbild. Dabei kann an einem einfachen Beispiel aus dem Alltag erläutert werden, warum nicht alle gleichartigen Abläufe programmatisch sein müssen und mehr Intelligenz zu ihrem Verständnis gefordert ist, als die Benutzung des Wortes »Programm« erfordert:
An einem Theaterabend kann man zwei Bereiche unterscheiden: das, was auf der Bühne passiert, und das, was im Zuschauerraum vor sich geht. Für das, was die Schauspieler auf der Bühne tun, gibt es einen Text, und insofern lässt sich sagen, dass ihre Handlungen programmatisch ablaufen (die ein Regisseur oder Dramaturg sogar neu regeln – umprogrammieren – kann). Für das, was die Zuschauer tun, gibt es Regeln (Etikette), aber keinen Text. Zwar spielen sich jeden Abend etwa die gleichen Szenen ab – jemand hustet, jemand lacht, jemand schläft ein, jemand trinkt etwas in der Pause -, aber die hier zu verzeichnende hohe Regelmäßigkeit ist auf keinen Fall programmiert.

Das kleine Programm des Lebens

Von einem programmatischen Geschehen kann man nur sprechen, wenn es neben dem anvisierten Geschehen noch ein zweites Ding gibt, das dazu genau passt (isomorph ist) und es zeitlich regelt – eben das Programm. Wer nun mit dieser Vorgabe das Leben einer Zelle (beziehungsweise unsere Kenntnis davon) betrachtet, wird tatsächlich einen Ablauf erkennen, der programmatisch vor sich geht. Gemeint ist der erste Schritt bei der Herstellung der Genprodukte, die als Proteine bekannt sind und die letztlich ganze biochemische Arbeit in einer Zelle leisten. Die Synthese der Proteine beginnt mit der Umwandlung einer Gensequenz in die Folge der Bausteine, aus der das Protein besteht. In der Fachsprache spricht man dabei von ihrer Primärstruktur, und man sagt, dass die Reihenfolge der Genbausteine in die Reihenfolge der Proteinbausteine übertragen wird. Dieser Schritt, die Herstellung dieser Struktur, ist zwar offenkundig programmatisch, aber danach ist Schluss für diese Vokabel. Mit der Primärstruktur der Proteine endet das Programm in der Zelle, die sich nun auf andere Formen der Naturgesetzlichkeit (Algorithmen) einlässt.
Mit ihrer Primärstruktur allein können die Proteine noch nicht aktiv werden. Um ihre zellulären Aufgaben zu erfüllen, müssen sie sich noch raffiniert entfalten und besondere Strukturen annehmen, die weit über die programmierte Kettenform hinausgehen. Die dazugehörige Faltung erfolgt dabei nachweislich nicht mehr nach den Vorgaben der Gene, sondern in Abhängigkeit von dem Milieu, in dem sich das Genprodukt befindet. Dieser Vorgang verläuft sicher höchst regelmäßig, aber hinter ihm steckt auf keinen Fall ein Programm und erst recht kein Programmierer.
Selbst in der zuletzt erreichten aufgefalteten und empfindlichen Konfiguration gehen die meisten Proteine noch nicht an die Arbeit. Sie suchen sich Partner, fügen sich in Familien ein und bilden vermutlich sogar Netzwerke, wobei dies erneut nur ein Modewort ist, das vermutlich mehr Sünden des Denkens zudeckt als Einsichten aufdeckt. Tatsächlich weiß niemand genau, was nötig ist, um die Genprodukte funktionsfähig zu machen, und man soll auch mit dem Rückgriff auf Programme nicht so tun, als ob man da den Durchblick habe. Denn eines lässt sich auch bei allem Nichtwissen sagen: Ein genetisches Programm spielt die kleinste Rolle, wenn das Leben seine Form sucht, wenn ein Embryo sich entwickelt oder eine Stammzelle sich auf den Weg ihrer Spezialisierung macht. Wie die dabei zutage tretende Zuverlässigkeit des biologischen Geschehens von der Natur garantiert wird, bleibt bislang verborgen – und dies wird umso länger der Fall sein, je mehr von den Programmen geredet wird, die hier scheinbar ablaufen sollen.

Das Fehlen einer Kommandozentrale

Was bis jetzt gesagt wurde, gilt innerhalb einer einzelnen Zelle. Dies lässt die Frage offen, ob es nicht sein kann, dass der Begriff »Programm« sinnvoll wird, wenn man das Zusammenspiel der Zellen betrachtet, das Entwicklung heißt und einen lebensfähigen ganzen Organismus hervorbringt.
Tatsächlich hält sich selbst in Wissenschaftskreisen hartnäckig die Idee, dass die Entwicklung eines Embryos nach Instruktionen (Programmen) abläuft, die in den Genen niedergelegt sind. In den Vorstellungen vieler Biologen liefern die Gene einen Plan (ein Programm), der in den Zellen umgesetzt wird. Entwicklung ist dann nichts anderes als eine Form der Fabrikation, was heißt, dass Menschen und andere Lebensformen so entstehen wie Autos oder andere Geräte.
Diese Bemerkung erlaubt einen Hinweis auf den Grund für die Langlebigkeit der unsinnigen Programmidee. Selbst bei Wissenschaftlern übt nämlich der gesunde Menschenverstand seinen mächtigen Einfluss aus. Gern flüstert er ihnen ein, dass ein so komplexes Geschehen wie das Hervorbringen eines Lebewesens eine Zentrale braucht, einen Chef, einen Chefprogrammierer, der den Überblick über die einzelnen Schritte hat. Es fällt ungeheuer schwer, sich klarzumachen und ernst zu nehmen, dass das Leben anders vorgeht und die Zellen vor allen Dingen selbst »wissen« beziehungsweise »herausfinden«, was sie zu tun haben, und zwar in Abhängigkeit von Signalen und Botenmolekülen, die sie ihrer Umgebung entnehmen.
Es wäre zwar schön, wenn es im Leben eine »central processing unit« gäbe, wie Computer sie kennen, aber das Leben ist nun einmal nicht so. Wahrscheinlich verfügt es ja gerade deshalb über die wunderbare Eigenschaft, die Computer wohl bis zum Ende aller Tage nicht erwerben: die Fähigkeit, sich selbst zu machen, und zwar von innen heraus (und ohne Programm).
Es ergibt tatsächlich überhaupt keinen Sinn, das Leben als Computer zu betrachten und dessen Zweiteilung in Hardware und Software in die Biologie zu übertragen, etwa dadurch, dass man die Gene als Software und die Proteine als Hardware bezeichnet. Schließlich ist das Programm eines Computers unabhängig von dessen Hardware. Man kann ein Gerät bekanntlich ohne Software kaufen. Und es ist darüber hinaus auf keinen Fall von einem der Programme hergestellt worden, die später auf ihm laufen.
Das Leben funktioniert völlig anders als eine Maschine (und nicht wie Menschen, die Maschinen nach einer Vorgabe bauen). Im biologischen Leben kommt der Organismus – die Hardware in der gewählten Metapher – als Ergebnis des genetischen Treibens zustande, also des Programms, wie es leichtfertig im falschen Bild heißt. Die Software des Lebens wäre, wenn es sie gäbe, dafür verantwortlich, die Hardware hinzubekommen, die ihrerseits das Programm laufen lassen soll. Mit anderen Worten, in dem Computerbild des Lebens betreibt die Hardware die Software, die zur selben Zeit die Hardware hervorbringen muss. Es kann also nur Verwirrung stiften, wenn wir die sinnvollen Konzepte der Chip-Welt in die Gen-Welt übertragen.

Die falsche Trennung

Kein Leben – vor allem kein menschliches Leben – wird so nach Plan gefertigt, wie es bei einem Industrieprodukt geschieht. Dieses mechanische Vorgehen ist doch nur möglich, wenn schon vorher jemand existiert, der die Instruktionen lesen und umsetzen kann. Für ihn muss es selbstverständlich auch einen Plan gegeben haben, und zwar bevor er tätig wurde. Und genau dies kann im Rahmen einer Zelle nicht gelingen.
Das Konzept der Programmierung taugt allein deshalb nicht, um die Entwicklung des Lebens zu verstehen, weil es grundsätzlich keine gute Idee ist, bei diesem Vorgang Plan und Ausführung zu trennen. Beide gehören eng zusammen, wie die jüngsten Einsichten der Entwicklungsbiologen zeigen, die im Chor der Biomediziner überhört werden. Die Gene und ihre Auswirkungen gehören sogar so eng zusammen, dass man geneigt sein könnte, anstelle des Maschinenbilds ein schöneres zu benutzen. Wenn Menschen entstehen, läuft kein Programm ab, sondern vielmehr so etwas wie ein Schöpfungsvorgang, wobei nicht die Kreativität eines Gottes, sondern die eines Künstlers gemeint ist. Vielleicht entstehen wir so wie die Werke eines Malers. Beim Malen fängt der Prozess mit einer Vorstellung im Kopf des Künstlers an, und seine Fortführung hängt von den Ergebnissen ab, die während der Bildkreation auf der Leinwand sichtbar werden. Bei der Embryonalentwicklung fängt der Prozess im Kern der Zelle an, und seine Fortführung hängt von den Bildungen ab, die im Laufe der Zeit entstehen und von der Umwelt registriert werden.
Wer die Entstehung eines Bildes beschreibt und dabei den Schaffenden vom Geschafften trennt, geht an der Sache vorbei. Dies gilt auch für die Entwicklung des Lebens. Bei ihrer Beschreibung sollte man nicht versuchen, das Bildende von dem Gebildeten zu trennen, weil die Gene und ihre Produkte in kontinuierlicher Wechselwirkung stehen. Es ist dieses Zusammenspiel, das empfindlich gestört wird, wenn es ans Klonieren geht und wir spezialisierte Zellen dazu bringen wollen, noch einmal von vorne zu beginnen und statt etwas gut, alles besser zu machen. Sowohl der Menschenklon als auch die künstlich erzeugte Stammzelle müssen ohne all die Kreativität auskommen, die das Leben im Verlauf der Evolution erworben hat, um sich selbst hervorzubringen. Mit den uns zur Verfügung stehenden neuen Möglichkeiten dürfen wir nicht hinter die Geschichte des Lebens zurückfallen. Das dazugehörige Programm ist jetzt schon veraltet.

Das menschliche Genom ist komplett sequenziert

Gene bestehen aus Molekülen, die in der Fachsprache als DNA abgekürzt werden und als eine sich windende Doppelhelix gebaut sind. Im Zentrum dieses schraubenförmigen Fadens des Lebens findet man vier Moleküle, die sogenannten Basen, die sich paarweise verbinden können. Die Basen Adenin und Thymin bilden dabei ebenso ein Paar (AT) wie die Basen Guanin und Cytosin (GC). Ein Gen kann somit als eine Folge von Basenpaaren notiert werden, wozu man auch Sequenz sagt. Dieser Begriff ermöglicht es dann, vom Sequenzieren eines Gens zu sprechen, wenn man die Reihenfolge der es ausmachenden Basenpaare bestimmt.
Nach dem Aufkommen der Gentechnik zu Beginn der 1970er Jahre sind Methoden entwickelt worden, um kurze Abschnitte aus DNA – Genstücke – zu sequenzieren. In den 1980er Jahren konnten diese Verfahren erweitert werden, um immer größere Gene in dem hier dargestellten Sinn offenzulegen. Dabei war oft davon die Rede, dass man Gene entschlüsseln könne, doch das ist ein irreführender Hinweis. Es lässt sich nämlich nur decodieren, was vorher codiert (verschlüsselt) worden ist, aber davon ist der Wissenschaft nichts bekannt.
Unabhängig davon wurden in den 1990er Jahren die Methoden zur Sequenzierung immer besser und zuverlässiger, und die gleichzeitig zunehmende Speicher- und Rechenkapazität von Computern ermutigte einige Wissenschaftler, nicht nur einzelne Gene, sondern gesamte Genome zu sequenzieren, also das komplette genetische Material, das sich in einer Zelle befindet – etwa in der Zelle eines Menschen. Sollte Krebs eine genetische Krankheit sein, so hoffte man, ihrer besser Herr zu werden, wenn man sämtliche Gene kennt. Man sprach bei dieser Aufgabe vom humanen Genomprojekt, dessen Ziel darin bestand, die Reihenfolge der drei Milliarden Basenpaare zu ermitteln, die das Erbgut eines Menschen ausmachen.
Erste Schätzungen zeigten, dass dieses Unterfangen etwa einen Dollar pro Basenpaar kosten würde, was aber niemanden abhielt, vom Lösen des Rätsels um das menschliche Genom zu träumen. Trotz aller Schwierigkeiten gelang es der Biologie, das Großforschungsprojekt zu realisieren. So wurde der Öffentlichkeit im Jahr 2000 tatsächlich mitgeteilt, das menschliche Genom sei entziffert. Überbringer der Botschaft war der damalige amerikanische Präsident Bill Clinton, der sich den Erfolg auf seine Fahnen schreiben wollte. Diese Jahreszahl hat etwas Mystisches an sich, man wollte der Menschheit zu Beginn des neuen Jahrtausends ihr Genom präsentieren, und da haben dann eben sowohl Wissenschaftler als auch Politiker gemeinsam geschwindelt. Tatsächlich lagen im Jahr 2000 gerade einmal 20 Prozent des Genoms vor, was die Frage erlaubt, wie es derzeit – zehn Jahre nach dem erfolgreichen Marketing-Gag – aussieht. Kennen wir das humane Genom nun vollständig? Ist uns seine Sequenz in allen Details bekannt?
Die Wissenschaft verbreitet diesen Mythos seit dem Jahr 2003, als die Entdeckung der Genstruktur – der Doppelhelix – ihren fünfzigsten Geburtstag feierte. Damals zelebrierte man zum zweiten Mal den offiziellen Abschluss des Humanen Genomprojekts, aber nur, um die Öffentlichkeit erneut zu täuschen. Tatsächlich fehlen bis heute Sequenzen von Millionen von Basenpaaren, wobei es sich vor allem um DNA-Abschnitte handelt, die sich in der Mitte und an den Enden der Chromosomen befinden. Damit sind die Zellstrukturen gemeint, in denen man die Gene oder das Genom findet. Die bislang unbekannten Sequenzen sind repetitiv, das heißt, dass kurze Folgen von Basenpaaren scheinbar endlos wiederholt werden, und es leuchtet ein, dass es Mühe macht, sich in diesem Bereich zu orientieren.
Aus Fachkreisen ist vielfach zu vernehmen, dass es ohne besondere Bedeutung sei, wenn diese dauernd wiederholten DNA-Sequenzen uns nicht bekannt seien. Sie würden wahrscheinlich nur als Platzhalter dienen. Tatsächlich? Immerhin machen sie 10 Prozent des gesamten Genoms aus, und es wäre einer wissenschaftlichen Denkweise eher angemessen, die Möglichkeit offenzuhalten, dass die Natur an dieser Stelle noch eine Überraschung bereithält. Wir kennen das humane Genom bis heute nicht vollständig. Wir leben aber seit zehn Jahren in dem Glauben, es zu tun. Der US-Präsident hat es doch damals gesagt, und niemand hat ihm öffentlich widersprochen.

Eine Biene opfert sich, indem sie ihren Stachel stecken lässt

Wer über Bienen Bescheid wissen will, dem sei dringend das Buch Phänomen Honigbiene von Jürgen Tautz ans Herz gelegt. Hier wird auch der Stachel-Mythos erklärt. Er findet sich in dem Kapitel, das von den »Funktionen der Wabe« erzählt, in denen der Honigvorrat angelegt ist. Der »voluminöse süße Schatz« weckt natürlich die Begehrlichkeiten von Räubern, und hier bekommt der Stachel seine Bedeutung, denn »gerade gegen die Bedrohung aus dem Bienenlager [konkurrierender Nachbarkolonien], die besonders im Spätsommer unter ungünstigen Trachtbedingungen gewaltig anwächst, setzen die Bienen ihren Giftstachel ein«, wie Tautz schreibt, wobei »Tracht« als Oberbegriff der Nahrung dient, die die Bienen zusammentragen.
Weiter heißt es:
Sticht eine Biene eine andere Biene, bekommt sie ihren Stachel problemlos aus dem Opfer wieder heraus. Dass später in der Evolution Tiere wie die Säugetiere auftraten, aus deren Gewebe der Stachel mit seinen Widerhaken nicht mehr herauszulösen ist, ist für die Bienen nicht »vorhersehbar« und kann eher als »Unfall« ausgelegt werden. Wird der Stachel mitsamt anhängender Giftblase, winzigen Muskeln und Nervenzellen aus der Biene herausgerissen, stirbt die Stecherin an der gewaltigen Wunde in ihrem Hinterleib. Der zahlenmäßige Verlust an Bienen, die so ihr Leben lassen, ist allerdings für eine Kolonie derart vernachlässigbar gering, dass es keine Selektion Richtung glatte Stachel gegeben hat.
Mit anderen Worten: Da opfert sich niemand, da hat nur jemand Pech. Man könnte auch sagen: dumm gelaufen.

Menschen sind unterschwellig beeinflussbar

Natürlich sind Menschen beeinflussbar – die Experten der Werbung werden hoch bezahlt, um diese Schwäche auszunutzen, und so wecken sie unsere Begehrlichkeiten mit unerwarteten Geschenken, eleganten Sprüchen, raffinierten Berechnungen und vielen anderen Praktiken der Manipulation, die man etwa in dem Buch über Die große Verführung nachlesen kann, das Robert Levine 2003 vorgelegt hat. Der Titel spielt auf das berühmte Buch an, das Vance Packard in den 1950er Jahren herausgebracht hat, um uns Die geheimen Verführer vorzustellen, mit denen die Werbefachleute jener Tage die Menschen zu beeinflussen suchten, und zwar so, dass sie es nicht merkten. Die Verführung sollte im Geheimen stattfinden, also unsichtbar bleiben, und als eine der hinterhältigsten Formen dieser Manipulation stellte Packard die Technik der subliminalen Beeinflussung vor, die auf Deutsch »unterschwellig« heißt.
»Unterschwellig« – das sollte heißen, dass Menschen visuellen Reizen ausgesetzt wurden, die zu kurz dauerten, um in ihr Bewusstsein dringen zu können, die aber lange genug währten, um vom Auge wahrgenommen und in das Gehirn geleitet zu werden, wo das Signal dann im Unbewussten seine Wirkung entfaltete.
Als Beispiel für ein Medium zur Vermittlung unterschwelliger Reize nannte Packard den Film, der dem Auge vierundzwanzig Bilder pro Sekunde anbietet, um die Illusion der Bewegung zu erzeugen, und in solch einen Filmstreifen waren einzelne Bilder eingeschnitten, die entweder ein Getränk oder einen Snack zeigten. Die Folge sei, so die Behauptung, dass nach der Vorführung die Umsätze der subliminal angebotenen Waren in die Höhe schnellten. Packard zitierte das Wall Street Journal, das über die Manipulation als neue Art der Werbung berichtet hatte, und die Leser und andere Leute glaubten seinen Worten. Die unterschwellige Verführung galt als ausgemacht, und so fand sie Eingang in Kriminalfilme, in denen der Mörder sein Opfer durch subliminale Reize – ein kühles Bier – dazu bringt, seinen Platz im überheizten Kinosaal zu verlassen, um im Vorraum nach einer Abkühlung zu suchen, wo aber nur der Täter mit gezückter Waffe auf ihn wartet.
Packards Darstellung galt als derart überzeugend und wirkte so glaubwürdig, dass etwa der Bundesstaat New York 1958 ein Gesetz verabschiedete, in dem Werbung mit unterschwelligen Reizen verboten wurde – was man sich aber hätte sparen können. Denn tatsächlich sind durchweg alle Versuche gescheitert, eine Wahrnehmung unterhalb der Wahrnehmungsschwelle nachzuweisen, und praktische Anwendungen dieser Idee hat es seit Jahrzehnten nicht mehr gegeben. Wie außer den Hirnforschern inzwischen auch Werbefachleute wissen, erlaubt allein die Kürze von visuellen Reizen, die in Experimenten angeblich angeboten wurden, starke Zweifel daran, dass ein Proband sie identifizieren kann. Darüber hinaus muss das Gesehene verstanden werden, um ein bestimmtes Verhalten auszulösen, und dies fordert dem Gehirn zusätzlich Zeit ab.
Wenn es überhaupt zu einem subliminalen Wahrnehmen kommt, dann geht dies nur mit dem vegetativen Nervensystem, doch von hier aus lässt sich kein kausaler Zusammenhang zum Inhalt des angebotenen Reizes herstellen. Bleibt die Frage, warum die Mär sich halten konnte und auch heute noch überzeugend wirkt, wenn man die Filme aus den 1970er Jahren sieht, die uns mit diesem geheimen Verführer etwas vorspielen.
Das muss wohl mit dem umfassenden Mythos zusammenhängen, den man als die Legende von der – oder die Angst vor der – beliebigen Manipulierbarkeit des Menschen bezeichnen kann. Haben nicht die Jahre der nationalsozialistischen Diktatur gezeigt, wie leicht Menschen formbar sind? Hören wir nicht dauernd von manipulativer Gehirnwäsche – im Krieg oder in Form von Umerziehungsprogrammen? Träumt nicht jede revolutionäre Bewegung von der Möglichkeit, durch geeignete Propaganda den neuen Menschen zu schaffen?
Wenn die empirisch belegten Befunde stimmen, können wir dank der Wissenschaft beruhigt sein. Der Mensch ist manipulierbar, aber nur in Maßen. Das fügt sich gut mit der Schwierigkeit zusammen, genau sagen zu können, wie er denn sein soll, der neue, der wesentlich manipulierte Mensch. Die Wissenschaft stellt zu ihrer und meiner Freude immer wieder fest, dass er bereits jetzt ziemlich gut ist. So soll und kann es bleiben.