. zurück
 
.    Human Genom Project = HGP
.   Das Genomprojekt
.
    Entstehungsgeschichte und Organisation
    Von Linde Peters 

    Die ersten Gedanken zu einem solchen Projekt sind älter als die Gentechnik und kamen
    auch nicht von Seiten der Biowissenschaften.

Ein Bedarf in dieser Richtung tauchte bereits 1970 auf. Um diese Zeit wurde nämlich deutlich, dass die Atomversuche in den USA und der Einsatz von Agent Orange in Vietnam genetische Schäden verursacht hatten, und dass die USA mit Schadenersatzklagen rechnen müssten. Deshalb erteilte der US-Kongress dem Department of Energy (DOE) den Auftrag, “die genetischen Schäden zu untersuchen, die Kinder erbten, deren Eltern einer Niedrigstrahlung oder anderen Mutationsauslösenden Agentien ausgesetzt waren”. Um mit solchen Schadenersatzansprüchen umgehen zu können, brauchte man als Vergleichsgrundlage Kenntnisse über die nicht veränderten Gene, also das Genom des Menschen. Aber noch führte kein Weg dahin.

Als die Gentechnik wenige Jahre später solche Wege aufzeigte, begann das DOE sich an Genomaufklärungen zu beteiligen, Jahre bevor offiziell vom Genomprojekt gesprochen wurde. Das DOE hatte damals bereits zwei Sammlungen menschlicher Gensequenzen eingerichtet, die für alle Forscher frei zugänglich waren: das National Gene Library Project in den DOE-Labors in Los Alamos und eine 1983 im Lawrence Livermore-Labor eingerichtete Genbank.

Das erste Treffen zur Konstituierung des Human Genome Projects (HGP) fand auf Einladung des DOE im Jahre 1984 statt.

1985 lädt Robert Sinsheimer, Rektor der Universität von Kalifornien in Santa Cruz, ebenfalls zu einem Treffen ein. Er hielt eine Sequenzierung für machbar und wollte, seine Universität das Zentrum der Aktivitäten machen.

1986 schlägt DeLisi, Direktor des Büros für Gesundheit und Umweltforschung innerhalb des DOE vor, das DOE, also die Behörde, der erselbst angehörte, solle das Zentrum des Genomprojektes sein.

In der Folgezeit machen Gerüchte in der “biological community”die Runde, das DOE wolle das gigantische Projekt im Alleingang starten. Deshalb schlägt der Nobelpreisträger James Watson auf einem Symposium des Forschungszentrums Cold Spring Harbor vor, das Projekt nicht beim DOE anzusiedeln, sondern bei der Forschungs- und Gesundheitsbehörde, den National Institutes of Health (NIH), weil es sich um ein biologisches Projekt handele, während die Leiter des DOE traditionell Physiker seien.

Es gab also zu Beginn erhebliche Konkurrenz zwischen verschiedenen Institutionen um die Führungsrolle. So arbeiteten DOE und NIH zunächst getrennt voneinander in ihren jeweils eigenen Programmen, unterzeichneten aber schliesslich im Herbst 1988 ein “Memorandum der Verständigung” (Memorandum of Understanding) und schufen ein gemeinsames NIH-DOE-Subkomitee, um ihre Programme zu koordinieren. (Science Bd. 248, S.44-49 (1990)).

Aber zurück ins Jahr 1986: Ein Gremium der National Academy of Sciences (NAS) ernennt ein 15-köpfiges Komitee innerhalb der NIH, das Vorschläge über die weitere Vorgehensweise des Projektes erarbeiten soll. Um eine vielfältige, umfassende Diskussion zu gewährleisten wird dieses Komitee bewusst mit Personen besetzt, die sich zuvor in sehr unterschiedlicher Weise zum Projekt geäussert haben. Das Ergebnis der Beratungen ist der NRC-Bericht, der 14 Monate später vorliegt. (NRC = National Research Council) Die Kernaussage lautet: es wird dringend empfohlen, dass der US-Kongress das Genomprojekt starten lässt und andere Nationen einlädt, sich gemeinschaftlich an den Anstrengungen zu beteiligen. Damit war das lockere organisatorische Gefüge angedacht, das das HGP bis heute auszeichnet, eine Konföderation aus vielen Einzelprojekten, nationalen und internationalen Zentren und Programmen sowie einigen privaten Labors.

Als nächstes forderte der Kongress das damalige US-amerikanische Büro für Technikfolgeabschätzung (Office of Technology Assessment, OTA) auf, einen Bericht zu erstellen, in dem verschiedene Gegebenheiten abgeschätzt werden sollten, und zwar:
 - die wissenschaftlichen und medizinischen Rechtfertigungen für dieses Mammutprojekt, 
 - die Finanzierungswege, 
 - die Koordinationsmöglichkeiten verschiedener öffentlicher und privater Einrichtungen 
 - und, “wie ein angemessenes Gleichgewicht hergestellt werden könne zwischen dem Wert einer internationalen Zusammenarbeit und der Notwendigkeit, die Konkurrenzstellung der USA in der Biotechnologie zu fördern”.(Science, Bd. 248 S.44-45 (1990))  Mit anderen Worten, es sollte auf jeden Fall ein Konkzrrenzvorteil für die USA dabei herausspringen.
Der OTA-Bericht erschien 1988. Grundtenor des Berichtes: Das Projekt ist bereits ein Faktum und dem US-Kongress fällt eine unerlässliche Rolle bei seiner Durchführung zu.

Danach wurde ein weiteres Komitee gegründet. Unter dem Vorsitz des Nobelpreisträgers David Baltimore beschlossen 18 Personen, innerhalb der NIH ein Büro für Genomforschung einzurichten mit einem angeschlossenen Komitee (noch ein Komitee also), das die Arbeit des Projekts auf Kurs halten sollte. Erster Leiter dieses Büros wurde James Watson. Er selbst hatte dafür plädiert, dass es ein prominenter Wissenschaftler sein müsse, weil nur so jemand viel Geld beim Kongress herausschlagen könne. Dieses Treffen fand 1988 in Reston statt.

Im September 1988 wurde in Genf eine Dachorganisation gegründet, die Human Genome Organization (HUGO). Sie sollte unter anderem für eine sinnvolle Verteilung der Gelder sorgen und eine Konkurrenz beim Acquirieren von Mitteln vermeiden helfen. “Damit nicht einzelne Projekte zu Monolithen werden”, schreibt John Maddox, der Herausgeber der Zeitschrift “Nature”, dem weltweit führenden Blatt der Molekularbiologie,. (Nature Bd. 349, S.360 (1991)). (Im Jahre 2000 sind 50 Länder an HUGO beteiligt, einschliesslich Japan und China).
Gut ein Jahr später, im November 1989, wird in Strassburg das Büro einer zweiten Dachorganisation eröffnet, des japanischen Human Frontier Science Programms. Unterschrieben ist es von der japanischen Regierung, aber Treuhänder sind die G7-Staaten (Japan, die USA, Kanada, die BRD, Grossbritannien, Frankreich und Italien) und die EG. Andere Länder wie die Schweitz, Schweden und Australien schliessen sich an. (Nature Bd. 342, S.99 (1989)) An HUGO wird der zu grosse US-amerikanische Einfluss kritisiert. (Gen-Informationsdienst Nr.41, S. 2-3, 1989). 

Und woher soll die zu untersuchende DNA bezogen werden? Dafür soll Zellmaterial des Centre d´Etudes Polymorphisme Humaine (CEPH) verwendet werden, weil dieses Zentrum international zur “Hauptquelle für einheitliches Zellmaterial” geworden ist. Die genauere Herkunft der DNA und die Zahl der Menschen denen sie entnommen wurde, ist offenbar kaum eine Information wert. Das wird in den verschiedenen Abhandlungen entweder nur am Rande erwähnt oder gar nicht. Einmal wird vom Mosaik eines hypothetischen Durchschnittsmenschen gesprochen, der mit keiner lebenden Person identisch sei, (Richard Lewontin, Lettre International, Herbst 1995, S.16-23)) oder von der Sequenz eines vermutlich repräsentativen Genoms. (Nature Bd. 352, S.11-14 (1991)) Woanders wird von vier, an wieder anderer Stelle von fünf verschiedenen Menschen gesprochen, die aus repräsentativen Ethnien stammen sollten. Keine Angaben darüber, welche Ethnien. In einem Bericht des deutschen Büros für Technikfolgenabschätzung (TAB) vom April 2000 wird gesagt, die DNA stamme von vielen Menschen, die ihr Einverständnis dazu gegeben haben. Möglich, dass es zunächst vier waren und dass später weitere hinzugenommen wurden. 
 

Die Grundsatzdiskussion: 
Soll alles entschlüsselt werden oder nur die codierenden Bereiche?

Im Vorfeld der praktischen Arbeiten wurde heftigst über den Sinn einer Totalsequenzierung gestritten.

Hierzu ein paar Erklärungen über den Aufbau unseres Genoms. Als zu Beginn der 70er Jahre mithilfe neuer Techniken die langersehnten ersten Ergebnisse über DNA-Sequenzen auf dem Tisch lagen, war die Reaktionn darauf eine totale Verwunderung. Der “heilige Gral” der Information des Lebens enthielt nur zu etwa 3% codierende Bereiche. Vom Rest hat ein Teil die Aufgabe, die Aktivitäten einzelner oder ganzer Gruppen von Genen zu regeln, aber der überwältigende Teil der DNA besteht aus sich wiederholenden, so genannten repititiven Bereichen mit sehr verschieden langen Wiederholungseinheiten (Repeats).Die kürzesten dieser Einheiten sind zwei Nucleotide lang, d.h. es wiederholen sich über lange Strecken immer die gleichen zwei “Buchstaben” (Diese DNA-Strecken heissen Mikrosatelliten, s. später. Im menschlichen Genom existieren einige Tausend Mikrosatelliten-Bereiche). Von den längeren Einheiten kommen einzelne in einer Häufigkeit vor, die in die Hunderttausende geht. Ein völlig überraschendes, erstaunliches Phänomen. Einige Forscher waren schnell bei der Hand, diese DNA als “Junk” (Abfall) zu bezeichnen. Tatsächlich gibt es über ihre Bedeutung bis heute nur ein paar Vermutungen. Sie könnten zum Beispiel eine Art Grundmasse für die Evolution darstellen. <das würde bedeuten, dass. sie eine schnellere Anpassung an veränderte Lebensbedingungen ermöglichen.

Die Gegner der Total-Sequenzierung (das waren keineswegs Gentechnologie-Gegner) argumentierten, es sei ohne Sinn, die ausgedehnten Strecken sich wiederholender Repeats zu sequenzieren. Damit würde nur anderen, wichtigeren Arbeiten die Mittel entzogen. Die Japaner sagten ganz direkt, diese Arbeit sei etwas für Techniker und Maschinen und nicht für Wissenschaftler.

Ein wissenschaftliches Argument  f ü r  die Totalsequenzierung ist die Erforschung der evolutionären Entwicklung des Genoms (s.oben). Ein anderes Ziel wäre die Erforschung möglicher Funktionen dieser sogenannten “Junk”-DNA.

Aber es ging nicht nur um wissenschaftliche Erkenntnisse. Watson sagt, 1961 hätten die USA den ersten Menschen auf den Mond geschickt. Das menschliche Genom zu entschlüsseln, sei auch ein grosses Ziel und koste eine Grössenordnung weniger. Die Physiker bekämen Milliarden für die Raumfahrt und die Atomtechnik und nun hätten die Biowissenschaftler auch ein grosses lohnendes Ziel. Es ging ihm darum, durch den Geldzustrom die biotechnologische Forschung aufzuwerten - und es ging um die US-amerikanische Vormachtstellung auf diesem Gebiet. Dafür spricht seine Äußerung – an die Adresse des zahlungsträgen Japan gerichtet (s.a. später) – drei Milliarden Dollar vom amerikanischen Steuerzahler sollten kein Geschenk für die Biotechnologie-Industrie der Welt sein. Dass Watson mit dieser Ansicht keineswegs allein stand, zeigt auch der bereits erwähnte Fragenkatalog des Kongresses an das OTA-Büro.

Ein Nebeneffekt dieser Politik war, dass sich die Industrie in Erwartung des hohen Geldflusses zunächst zurückhielt . Aus diesem Grunde wurden sogar bereits laufende Unterstützungen nicht mehr verlängert (Nature Bd. 339 S. 242 (1989); Naturwissenschaftliche Rundschau Bd. 43 S. 303-304 (1990)).

Bei einer Anhörung über die Mittelvergabe des Massachusetts Institute of Technology (MIT) kam es zu Tumulten, weil von einem Industrieföderprogramm aus öffentlichen Mitteln ein Viertel an Japan ging, während Japan keinen gleichartigen Zugang zu seiner Forschung gewährte. (Nature Bd.339 S.568, (1989)) Hierbei ging es zwar nicht oder nicht ausschließlich um das HGP, aber die Reaktionen zeigen, dass das Ideal einer kooperativen internationalen Zusammenarbeit auf höchst angespannten Fundamenten ruhte.

Auch bei uns wurde das internationale Parkett als Austragungsort für Konkurrenzen gesehen: Eine hierzu eingesetzte Ad-hoc-Kommission liess verlauten: “Jede Verzögerung ... bedeutet verlorenes Terrain im internationalen Vergleich.” (Gen-Informationsdienst Heft 41, S.2-3, 1989)

David Baltimore bringt die Diskussion wohl auf den Punkt, wenn er sagt: Dieses Mammutprojekt sei ein Unternehmen, das durch seinen PR-Wert gerechtfertigt sei, aber nicht durch seine Bedeutung. (SZ 16.11.1991)
 

Die japanische Verweigerung
Japan war von Anfang an gegen das Projekt. Die Japaner entschieden sich für Einzelaufgaben, die sie für sinnvoller hielten: die Sequenzierung eines Hefegenoms, der DNA von Chromosom 21 (das beim Down-Syndrom eine Rolle spielt) und von Onkogenen. Ausserdem wollten sie an einer Verbesserung der Sequenzierautomaten arbeiten. Daran waren die Unternehmen Seiko (Hauptprodukt Uhren) und Fuji (Hauptprodukt Filme) beteiligt. Die Japaner verweigerten dem HUGO jede Unterstützung und sagten ganz offen, sie hätten statt dessen ihr Human Frontier Science Programme, dem sich – wie bei HUGO – ebenfalls andere Länder anschliessen könnten. Die japanischen Ausgaben für die Genomforschung betrugen 1990 22.4 Millionen Dollar, das war nur 1% seiner Ausgaben für die Kernenergie. (Nature Bd.343, S.195 (1990)).
Weltweit soll das Projekt 6 Milliarden Dollar verschlungen haben, also doppelt so viel wie ursprünglich veranschlagt.
 

Ein 5-Jahresplan für die Vorarbeiten

Um die Zeit, als die Ampeln für das Projekt auf Grün gestellt wurden, kostete die Sequenzierung 5 $ pro Basenpaar (bp), ein unannehmbarer Preis für eine Sequenz von 3 Milliarden Basen. Deshalb sollte zunächst die Technologie verbessert werden. Man rechnete damit, dass sich der Preis auf 50 Cents/bp senken liesse (tatsächlich sank er bis auf 10 Cents). Man setzte damals also ganz bewusst auf technische Verbesserungen in der Zukunft. Das war vernünftig, um Zeit zu gewinnen, aber nicht ohne Risiko, ein Vorwärtsschreiten also ohne festen Boden unter den Füssen.

Die Sequenziertechnik war nicht nur hinsichtlich des Preises verbesserungsbedürftig, sie musste auch schneller werden und es mussten grössere Abschnitte in einem Arbeitsgang sequenziert werden können.

Um nicht grosse Geldsummen unnötig zu verschleudern, sollte die direkte Sequenzierung zurückgestellt werden, bis die technischen Voraussetzungen verbessert seien. Dafür wurden fünf Jahre veranschlagt. Eine solche Stillhaltevereinbarung war natürlich nur im öffentlichen Sektor über die Mittelvergabe durchsetzbar. Die Grundlage dafür, dass sie eingehalten wurde, war also von Anfang an löchrig.

Zu den Vorarbeiten gehörte unter anderem die Entwicklung von Software zum Umgang mit den anfallenden Daten, sowie eine Erweiterung und Beschleunigung der Automatisierung. Das wichtigste aber war eine Fraktionierung der DNA in Bruchstücke von praktikabler Grösse und das Auffinden von Markern, um die Position der einzelnen Stücke in der gesamten DNA zu bestimmen. 

Dazu wieder ein paar Erklärungen: Je besser die Sequenziermethode, desto grösser können die Stücke sein, die direkt sequenzierbar sind. Aber je kleiner diese Stücke sind , desto grösser ist natürlich ihre Anzahl. Das aber ist ein Problem für die Trennmethode, mit der das Gemisch der Teilstücke in die Einzelbestandteile aufgetrennt wird. Zur Zeit der Vorarbeiten für das Genomprojekt war es daher nötig, eine weitere “Generation” oder Gössenklasse von Teilstücken einzuführen. 

D.h. zunächst sollte die DNA grob unterteilt werden. Dazu brauchte man sogenannte Marker, um sie nach der Analyse wieder richtig zuordnen zu können. (Marker sind kurze DNA-Stücke mit einer in der DNA einmaligen Sequenz, deren Position bekannt ist). Dann sollten diese Stücke – jedes in einem eigenen Arbeitsgang - ein weiteres Mal unterteilt werden, aber auch diese Bruchstücke waren für eine Sequenzierung noch zu lang. Deshalb musste der Arbeitsplan so aussehen, dass jedes dieser Bruchstücke – wieder in einem eigenen Arbeitsgang – ein weiteres Mal gespalten wird, um dann zu Fragmenten von sequenzierbarer Grösse zu gelangen. Um die DNA-Stücke der mittleren Größe richtig einzuordnen, war ein zweiter Satz von Markern nötig. 

Das Erarbeiten der Marker für die zwei Grössenklassen von Bruchstücken wird Kartierung genannt. Es war die Haupt-Vorarbeit vor der Sequenzierung. 

Zusammenfassend ist also zu sagen: Vom Standpunkt von 1990 aus musste die DNA stufenweise in drei Grössenklassen von Fragmenten unterteilt werden. Für alle mussten Genbanken eingerichtet werden. Genbanken bestehen aus Hefe-Zellkulturen, in die diese Gene (oder andere DNA-Abschnitte) eingebaut sind. Der Einbau erfolgt so, dass die DNA leicht wieder herausgeschnitten werden kann und dann für weitere Untersuchungen zur Verfügung steht. Außerdem können die Zellkulturen natürlich vermehrt werden, so dass man Zellklone bekommt, die alle dasselbe Bruchstück der DNA enthalten. So hat man ausreichend Material für die Analysen. Der Einbau in die Hefezellen bedeutet, dass jedes DNA-Fragment vor dem Transfer in die Hefezelle in einen Vektor (eine Art DNA-Fähre) eingebaut werden muss. 
 

Die Kartierung für die 1. Grössenklasse von DNA-Bruchstücken
Die genetische oder Kopplungskartierung (die englischen Begriffe hierfür variieren: genetic mapping, linkage mapping, comprehensive mapping)

Ein paar Erläuterungen für eingehender Interessierte: Als Marker wurden zunächst RFLPs (restriction fragment length polymorphisms) verwendet. Sie beruhen auf Mutationen, die jeweils die Erkennungssequenz für ein spaltendes Enzym (Restriktionsenzym) aufheben oder eine neue schaffen, so dass sich das Muster der Spaltstücke ändert, die durch das Enzym gebildet werden. Bei dieser Art von Mutationen gibt es immer nur zwei Allele (Allele sind verschiedene Erscheinungsformen desselben Gens oder derselben DNA-Stelle), denn entweder wird an der Stelle gespalten oder nicht. Später wurden in die Kartierung auf dieser Ebene auch Mikrosatelliten-Marker aufgenommen. Die verschiedenen Varianten dieser Marker unterscheiden sich in ihrer Länge. Die Zahl der möglichen Unterschiede ist hierbei größer, d.h. die Marker liegen in vielen Allelen vor. (Nature Biotechnology Bd. 16, S.33-39 (1998))

Diese Kartierung wurde mit klassischen genetischen Methoden durchgeführt, d.h. bei Tierversuchen mit Kreuzungen und beim Menschen mit Tausenden von vergleichenden Untersuchungen in Grossfamilien oder anderen Populationen. Deshalb spricht man von genetischer Kartierung. Die auch verwendete Bezeichnung “linkage map” besagt, dass hiermit die Lage von Genen zueinander bestimmt wird, auch wenn ihre Position im Chromosom (noch) nicht feststeht.

Die 1990 aufgestellte Forderung für die genetische Kartierung war, der Abstand zwischen den Markern sollte im Durchschnitt 2 Megabasen (Mb) betragen und maximal 5 Mb. Bei dieser Auflösung kann man die DNA in 2-3 Mb lange Fragmente unterteilen und erwarten, dass jedes Fragment einen Marker enthält. (Später stieg die Auflösung auf 700 kb, so dass Fragmente von nur 1 Mb zugeordnet werden konnten)

Als Vektoren für diese Klasse dienen künstliche Hefechromosomen (YAC, yeast artificial chromosomes). 
Leider sind die YACs strukturell sehr instabil. Bei 50% (!) von ihnen wurden Veränderungen festgestellt. Dabei waren entweder Teile verloren gegangen (Deletionen), oder es kam zu Umorientierungen innerhalb der Sequenz (Rearrangements) oder man fand Kombinationen (Chimären) aus mehr als einem Klon.
Das Heraussortieren der fehlerhaften Exemplare erfordert einen grossen Aufwand. Interessanter- und typischerweise wird dieses Problem erst beim Vergleich mit Craig Venters verbesserter Methode mitgeteilt (s. später). 

Die genetische Kartierung war 1993 abgeschlossen. 

Die Kartierung für die 2. Grössenklasse von DNA-Bruchstücken
Die physikalische Kartierung

Bei der Kartierung auf dieser Stufe geht es darum, die Bruchstücke, die bei einer weiteren Spaltung der Fragmente der ersten Ebene entstehen, wiederauffindbar zu machen. Marker sind  hier kurze sequenzierte Bereiche (genannt STSs = sequence-tagged sites). Einzige Bedingung ist: Sie müssen in der ganzen DNA einmalig sein. Die STSs sind einige Dutzend Basenpaare lang und sollen Abstände von einigen zig kb haben, so dass 40 bis 100 kb lange Bruchstücke in die richtige Position gebracht werden können. Als Vektoren dienen Cosmide, das sind bakterielle Vektoren. Die physikalische Kartierung wurde Ende 1995 in einer vorläufigen Form vorgestellt und 1997 abgeschlossen.

Die 3. Grössenklasse von DNA-Bruchstücken

Und nun zur letzten Ebene: Diese dritte Unterteilung ergibt Stücke, die klein genug sind für eine direkte Sequenzierung. Sie entstehen durch Spaltung der Bruchstücke der 2. Ebene, aber diesesmal erfolgt die Spaltung nicht an bestimmten Erkennungsstellen, sondern durch eine statistische Fragmentierung (Schrotschussmethode). Da die Spaltstellen statistisch gestreut liegen, existieren in einer genügend grossen Menge von Spaltstücken auch sämtliche denkbaren Überlappungen. Zur Absicherung der Ergebnisse wird ein Mehrfaches (z.B: das 8-fache) der anfallenden Stücke sequenziert. Man spricht dann von 8-facher Deckung (coverage). Auf dieser Ebene dienen M13-Phagen oder Plasmide als Vektoren. 
 

Begrenzend für dieses Sequenzierverfahren war die Grösse der zusammenhängenden Sequenzen (Contigs genannt), die durch Direktsequenzierung der kleinsten Stücke und deren anschliessender physikalischer Kartierung in ihrer Sequenz aufgeklärt werden konnten. 1988, als der NRC-Bericht mit den ersten konkreten Arbeitsempfehlungen herauskam, lag die Obergrenze für die Contigs bei 1 Mb. Deshalb wurde für die genetische Kartierung eine Auflösung von 1 Mb gefordert, obwohl das damals noch gar nicht machbar war. 1990 waren Contigs von 2 Mb Länge möglich, so dass sich die bei der genetischen Kartierung geforderte Auflösung auf 2 Mb entspannte. Watson schreibt 1990 hierzu: “Das wird nicht das letztemal sein, dass ein Ziel im Licht der fortgeschrittenen Wissenschaft neu gesteckt werden muss.” (Im Grunde beruht ein Grossteil des Erfolges von Craig Venter auch darauf, dass seine Strategie auf bis dahin gemachten Fortschritten aufbauen konnte. s.später).

Ähnlich wie beim Preis pro Basenpaar wurde auch bei der genetischen Kartierung mit einem Plan gestartet, der zu der Zeit gar nicht realisierbar war. Die Hoffnung, dass die künftige Entwicklung die Vorgehensweise rechtfertigt, hat sich auch in diesem Fall erfüllt. 

Um die menschlichen Gensequenzen interpretierbar zu machen, wurde gefordert, dass parallel dazu oder leicht im Voraus auch die Genome einiger Modellorganismen aufgeklärt werden: und zwar die des Darmbakteriums Escherichia coli, einer Hefe, des Fadenwurms Caenorhabditis elegans, der Ackerschmalwand Arabidoposis thaliana, der Taufliege Drosophila und der Maus.
 

Craig Venter, 1.Teil

Im Juni 1991 schlug eine Nachricht wie eine Bombe ein: Craig Venter hatte 347 Teilsequenzen von sogenannter komplementärer DNA (cDNA), von deren Funktion er keine Ahnung hatte, zum Patent angemeldet. (cDNAs sind Artefakte, die in der Natur garnicht vorkommen. Es ist die in die DNA-“Schrift” zurück umgeschriebene Boten- oder Messenger-RNA. Die so ermittelten DNA-Sequenzen kommen auch natürlich vor, aber es fehlen die Introns, das sind nicht-codierenden Abschnitte, die sich bei Säugetieren innerhalb der Gene befinden). Venter sagte, sein mit Automaten hochbestücktes Labor könne 100 solcher Sequenzen am Tag ausspucken. Daraufhin entbrannte eine Patentdiskussion, wieviel Erfinder-“Arbeit” denn für ein Patent nötig sei. Der für starke Worte bekannte James Watson sagte dazu, das sei “heller Wahnsinn”. Mit Hilfe von Automaten könne das “praktisch jeder Affe”.(Science Bd. 254, S.184-186 (1991))

Venter hat die Hochleistungsautomaten nicht erfunden, sie wurden überwiegend in Japan entwickelt. (Im Juli stellte eine japanische Gruppe ein Gerät mit einer Sequenziergeschwindigkeit von 100 000 Basen pro Tag vor, das Doppelte von dem was Watson nur ein Jahr zuvor als das maximal erreichbare angesehen hatte.) Venter bezog seine Maschinen von Perkin-Elmer und hatte davon zunächst 230, später 300 laufen. (z.B. Spiegel 7.9.1998)

Auch die Idee, komplementäre, statt der natürlichen DNA zu sequenzieren, ist nicht von ihm. Das hatten zuvor schon britische Forscher vom Medical Research Council (MRC) versucht. Aber auf ihre Anfrage, ob das patentierbar sei, wurde ihnen mitgeteilt, das seien Routinearbeiten ohne erfinderischen Wert, woraufhin sie ihr Vorhaben zurückzogen.

Venter sagt, er könne mit seiner cDNA-Methode die gesamten codierenden Bereiche für 10 Millionen $ aufklären, also für 0.3% des HGP-Gesamtetats (zumindest des offiziellen Etats). Diejenigen, die das Ganze als PR-Projekt aufgebaut hatten, um den gesamten Forschungsbereich aufzuwerten, fragten jetzt natürlich, wie sie dann “die restlichen 2.5 Milliarden Dollar” für die verbleibenden 97% der Sequenz vom Kongress erhalten sollten.(Nature Bd.353, S.485 (1991)) In den Jahren zuvor war eine intensive Diskussin darüber geführt worden ob die Wissenschaftler eine “vernünftige” Wissenschaft auf kleiner Flamme wollten oder visionäre Ziele mit einer Aufwertung des ganzen Wissenschaftszweiges auf grosser Flamme. Die grosse Lösung hatte nach heftigen Kontroversen gesiegt. Und nun kommt Venter, nutzt die inzwischen für eine grosse Lösung entwickelten Technologien, geht zurück auf die kleinere Version und sagt: Ich kann es viel schneller und viel billiger.

Dabei hat sein Verfahren eine Reihe von handfesten Unzulänglichkeiten. Bei der Verwendung von cDNA werden nicht nur die Bereiche ausgelassen, die “Junk” heissen, weil für sie noch keine Bedeutung bekannt ist, sondern auch die Regulatoren, Promotoren, Enhancer, Silencer und die verschiedenen “Boxen” – und die Introns, von denen einige nachweislich Funktionen für die Expression und für das Spleissen der Gene haben.
 

Craig Venter, 2. Teil

Ab 1996 sorgte Craig Venter erneut für Schlagzeilen. Er stellt diesesmal eine Alternative zur Gesamtsequenzierung vor. Wieder ist er schneller und billiger.

Hauptclou seiner Version für die Totalsequenzierung ist, dass er auf die Kartierungen verzichten kann. Dabei profitiert er wiederum von verschiedenen Fortschritten, die in der Zwischenzeit gemacht wurden. 

Die Länge der Segmente, die an einem Stück sequenziert werden können, hat sich in der Zwischenzeit von etwa 400 bp auf über 500 bp erhöht. Ausserdem existieren inzwischen stabilere Vektoren. Beide Vorteile sind Bestandteile der neuen Sequenzierungsstrategie von Venter. Er unterteilt die DNA eines Chromosoms in durchschnittlich 150 kb lange Abschnitte. Diese klont er in künstliche Bakterienchromosomen (BAC, bacterial artificial chromosomes) ein. Deren Fassungsvermögen liegt mit 350 kb zwischen dem der YACs (1 Mb) und dem der Cosmide (40 kb). Auf diese Weise ist an beiden Enden des Verfahrens Spielraum gewonnen, so dass eine Ebene eingespart werden kann. Da die Teilstücke der letzten Ebene automatisch positioniert werden, bleibt nur eine Ebene, auf der Marker gebraucht werden. Und hier ersetzt Venter die Kartierung mit Markern durch Teilsequenzierungen. Bei jedem der 150-kb-Stücke werden an beiden Enden je 500 Basen sequenziert. Das macht Venter bei 300 000 (!) solcher Stücke, d.h. er arbeitet mit 15-facher Deckung (s.o.). Damit hat er, über das ganze Genom verteilt, etwa alle 5 kb einen bekannten Sequenzbereich und insgesamt hat er damit bereits 10% der Sequenz aufgeklärt. 

In dem Gemisch überlappender Bruchstücke enthält jeder der 150 kb langen Abschnitte durchschnittlich 30 solcher Erkennungssequenzen. Das reicht, um ihre Reihenfolge zu ermitteln. Dann müssen aus dem grossen Topf von 300 000 dieser Abschnitte nur noch gut  20 000 geeignet liegende sequenziert zu werden und man hat die gesamte Sequenz.(Nature Bd.381, S. 364-366 (1996))

Die Sache hat allerdings einen Schönheitsfehler: In den ausgedehnten, sich stark wiederholenden Teilen ist es schwer, charakteristische Sequenzen zu finden. Deshalb wird bezweifelt, ob die von Craig Venter im Jahr 2000 vorgestellte Gesamtsequenz in diesen Bereichen korrekt ist.

Auch in diesem spektakulären Fall ist Venter nicht der erste, der eine solche Idee hatte und ein schnelleres, billigeres Totalangebot macht. Schon 1 ½ Jahre vor ihm, im Dezember 1994 stellten ein britischer und ein US-amerikanischer Genomforscher ein vergleichbares Projekt vor. Es waren John Sulston, Chef des Sanger-Centre in England und Bob Waterston von der Washington-Universität in St. Louis. Sie schlugen vor, nur die wichtigen Bereiche mit der geplanten Genauigkeit von 99.99% zu bearbeiten und sich für die Zwischenbereiche mit einer Genauigkeit von 99.9% zu begnügen. Auch sie wollten stabilere Vektoren einsetzen. Als Preis nannten sie 22 Pfg. pro Basenpaar und den Abschluss der Arbeiten erwarteten sie für 2001.(Nature Bd.375, S.93-94 (1995); Science Bd.267, S.783-784 (1995); Nature Bd.378, S.120 (1995)) Sie argumentierten damit, dass die Fortschritte in der Sequenziertechnik nach anfänglichen Verbesserungen sei einiger Zeit stagnierten, daß kein weiterer grosser technischer Sprung in Sicht sei und dass es daher aus pragmatischen Gründen sinnvoll sei, keine weitere Zeit zu verlieren, und jetzt mit der Sequenzierung zu beginnen. Sie verfügten über eine Laborkapazität für die Sequenzierung von 1 Mb pro Tag. 

Ihre Pläne wurden von Experten für machbar gehalten und die Zeit sei reif für einen Strategiewechsel, hiess es. Ein Direktor des zu den NIH gehörenden National Center for Human Genome Research (NCHGR), Mark Guyer, sagte, das sei das erstemal, dass jemand mit einem Entwurf aufgetaucht sei, der nach einem plausiblen Weg zu diesem 15-Jahres-Ziel aussähe. Aber die Vorschläge von Sulston und Waterston hätten eine grössere Zentralisierung nötig gemacht. Die Arbeiten hätten nur auf höchstens drei Labors verteilt werden können. Das NCHGR hätte daher die Schwerpunkte seiner Zuwendungen verändern müssen und war offensichtlich zögerlich das zu tun. Die Autoren stellten ihre Pläne auch auf weltweit bekannten Symposien vor (in Cold Spring Habor und auf einem Reston-Treffen). Aber das Ergebnis war, sie sollten den normalen Weg einer wissenschaftlichen Begutachtung gehen, dann könnte das Gutachten Ende 1995 vorliegen und “wenn alles gut geht”, so Guyer, könnten sie ab Anfang 1996 finanziell unterstützt werden. .... Die beiden Forscher waren zwar gut, hatten aber nicht die grosse Industrie hinter sich wie Craig Venter.
 

Linde Peters

(Referat für den Beirat des Gen-ethischen Netzwerkes GeN)


Erste Analyse des Human-Genom-Projekts:

Der Mensch hat weitaus weniger Gene 
als bisher angenommen

Wissenschaftler schliessen daraus, dass Umwelteinflüsse eine weit größere Relevanz für das menschliche Verhalten haben. Genomforscher schätzen die Anzahl der Gene des Menschen auf etwa 30 000. Bisher wurden mehr als 100 000 Gene vermutet.

Mo. 12.02.01 - Heute stellten Forscher aus Washington, London, Paris, Tokio und Berlin Analysen des menschlichen Erbguts vor. Demnach hat der Mensch weitaus weniger Gene als bisher angenommen. [ mehr... ]
 



 

    Human Genom Project
    Die offizielle Seite des internationalen Projekts: 
    http://www.gdb.org 

    Deutsches Human Genom Projekt 
    http://www.dhgp.de

    Die am häufigsten gestellten Fragen zum Humangenomprojekt
    werden beantwortet unter: 
    http://www.ornl.gov/hgmis/faq/faqs1.html

    Kommentierte Linkliste zum Genomprojekt:
    http://www-ls.lanl.gov/HGhotlist.html
 

    Erstellt am 27.01.2001
 
 
 
 
. zurück . nach oben


 
 
 kunst   philosophie   wissenschaft   gesellschaft   diverses   news   ökologie 

  home(no frame)      home
 
 

B.O.A.-Künstlerkooperative
Gabelsbergerstr.17, D-80333 München, Tel.089-2714023/Fax.- 280621,
boa-kuenstlerkooperative@t-online.de
.