|  Impressum  |  Login | 
Home
Projekt
Steckbrief
Thematik
Teilprojekte
Team
News
Downloads
Team Space
 

Thematik und Zielsetzung

Ein nicht unerheblicher Teil der Erforschung der genetischen Grundlage häufiger Erkrankungen („Volkskrankheiten“) erfolgt zwischenzeitlich hypothesenfrei. Hierzu werden genetische Polymorphismen, die nach gegenwärtigem Wissensstand funktionell weitgehend bedeutungslos sind, in großer Zahl im Hinblick auf ihre Krankheitsassoziation untersucht. An dieses Vorgehen knüpft sich die Hoffnung, dass durch das Vorliegen eines so genannten „Kopplungsungleichgewichts“ eine Korrelation der analysierten Polymorphismen mit bislang unbekannten, für die Krankheit kausalen, genetischen Varianten sichtbar wird. Zeigt sich in einer initialen und explorativen Fall-Kontroll-Studie ein Assoziationssignal in einer bestimmten chromosomalen Region, so wird dieses in Folgestudien näher charakterisiert.

Explorative genetische Assoziationsstudien werden zunehmend mit Hochdurchsatzverfahren durchgeführt, wobei mehrere hunderttausend Einzelbasen-Polymorphismen (SNPs), die über das gesamte humane Genom verteilt sind, gleichzeitig mit Hilfe so genannter „Microarrays“ genotypisiert werden. Im Wesentlichen kommen hierbei zwei Techniken zum Einsatz, die von den Marktführern Affymetrix und Illumina (beide USA) kommerziell vertrieben werden. Beide Verfahren beruhen auf dem Prinzip, das Vorhandensein oder die Abwesenheit von Biomolekülen, die auf einen geeigneten Träger gebundenen sind, aus der Stärke eines quantitativen, durch energetische Anregung entstandenen Lichtsignals abzuleiten. Die statistische Verteilung der Signalstärke sollte dabei idealerweise mit drei diskreten Zuständen (0, 1 oder 2) korrespondieren. Diese Klassifizierung entspricht den drei möglichen Genotypen für den jeweiligen SNP.

Die geschilderten, hoch integrierten Technologien bringen allerdings auch eine Reihe praktischer Probleme mit sich. Die Verlässlichkeit der mit Microarrays erzeugten Genotypdaten ist in Abhängigkeit von der verwendeten Technologie deutlich geringer als 100%. Mögliche Fehlerquellen ergeben sich auf der gesamten Prozessierungsschiene, beginnend vom primären Untersuchungsgut, d.h. der aus Blut extrahierten DNA, bis hin zur Übertragung der qualitativen Genotypdaten in eine statistische Analyseumgebung. Um den Einfluss dieser Fehlerquellen möglichst gering zu halten, erfordert die Nutzung von Hochdurchsatz-Genotypisierungsdaten ein umfangreiches Qualitätsmanagement (QM). Ohne entsprechendes QM besteht die Gefahr, dass Daten durch systematische oder unsystematische Verfälschungen unbrauchbar werden und wertvolle wissenschaftliche Information entweder verloren geht oder fehlinterpretiert wird.

Das QM von Hochdurchsatz-Genotypisierungsdaten erfolgt momentan an verschiedenen Stellen wie z.B. der primär Daten erzeugenden Laboreinheit, den Bioinformatikeinheiten molekularbiologisch tätiger Labore oder den Einrichtungen, die mit der abschließenden statistischen Analyse befasst sind. Für die Durchführung des QM gibt es keinen etablierten oder konsentierten Standard. Über die Gütekriterien der Daten entscheiden die Wissenschaftler nach eigenem Gutdünken. Dies hat zur Folge, dass die bereits existierenden Bestände an Hochdurchsatz-Genotypisierungsdaten und die daraus abgeleiteten wissenschaftlichen Schlussfolgerungen hinsichtlich ihrer Validität oft schwer zu beurteilen und hinsichtlich ihrer Aussagekraft schwer zu vergleichen sind. Diesem Umstand soll durch das beantragte Projekt abgeholfen werden, indem die in Deutschland mit dem QM von Hochdurchsatz-Genotypisierungsdaten befassten Fachleute hierfür gemeinsame Richtlinien und Standards entwickeln.

Seite drucken      Seitenanfang  Copyright 2008 by TMF