|  Impressum  |  Login | 
Home
Projekt
Steckbrief
Thematik
Teilprojekte
Team
News
Downloads
Team Space
 

Teilprojekte

Das geplante Projekt zum QM von Hochdurchsatz-Genotypisierungsdaten wird in fünf inhaltlich definierte und ein administratives Teilprojekte (TP) strukturiert. Diese werden von den antragstellenden Institutionen in enger Abstimmung untereinander bearbeitet. Eine Aufteilung des Projekts auf verschiedene TP ist erforderlich, da ihre kompetente Bearbeitung jeweils unterschiedliche, auf mehrere Institutionen verteilte Expertise voraussetzt. Die enge Verzahnung der TP und ihrer Resultate wird durch intensive Kommunikation und regelmäßige Projekttreffen sichergestellt. Im Einzelnen sind folgende TP vorgesehen:

  1. TP 1.    Entwicklung standardisierter Kriterien für die Validität qualitativer Genotypisierungsdaten
  2. TP 2.    Etablierung wissenschaftlich fundierter Plausibilitätskriterien für Genotypisierungsdaten
  3. TP 3.    Fehlererkennung und Fehlerkorrektur bei Genotypisierungsdaten
  4. TP 4.    Daten- und Qualitätsmanagement der Replikation von Genotypisierungsstudien
  5. TP 5.    Primärdatenstrukturen, Haltung und Transfer von Genotypisierungsdaten
  6. TP 6.    Administrative Projektkoordination durch die TMF

TP1: Entwicklung standardisierter Kriterien für die Validität qualitativer Genotypisierungsdaten

Ein entscheidendes Kriterium für den wissenschaftlichen Wert von Genotypisierungsdaten ist deren Validität. Beim so genannten „Allele-Calling“ werden qualitative Genotypen aus den gemessenen Farbintensitäten der beiden Allele eines SNP in einer Person abgeleitet. Die Intensitäten werden jedoch von einer Reihe systematischer Faktoren beeinflusst wie z.B. der DNA-Aufbereitung, -Qualität und -Konzentration. Darüber hinaus gibt es eine Reihe stochastischer Effekte, die z.B. im Verlauf der Hybridisierung auftreten können. Entsprechend sind die gemessenen Intensitäten mit Messfehlern behaftet und haben typischerweise eine wolkenförmige Verteilung. Entgegen der theoretischen Erwartung liegt die Wolke der Heterozygoten jedoch nicht immer zwischen den Wolken der Homozygoten („kanonisches Muster“). Daher verwenden verschiedene Calling-Algorithmen unterschiedliche a priori Information über die Lage der Wolken. Da sich die Lage der Wolken in Abhängigkeit von zufälligen und systematischen Faktoren ändert, kann es zu einer maßgeblichen Verzerrung des Allele-Callings kommen.

Für einen nicht unerheblichen Teil der SNPs weichen die Intensitäts-Cluster deutlich vom kanonischen Muster ab, d.h. es gibt mehr als drei getrennte Cluster, oder es treten Allele mit Null-Intensitäten auf. Für solche Gegebenheiten sind in der derzeit verfügbaren Auswertungs-Software keine Algorithmen implementiert. Bei zahlreichen SNPs fällt zudem eine falsche Allelzuordnung mit den gegenwärtigen Algorithmen nicht auf, da klar getrennte, im Bereich der Misch-Intensitäten liegende Cluster der Kategorie „heterozygot“ zugeordnet werden. Selbst wenn diese Eigenheiten nur einen Teil der SNPs betreffen, so können sie doch auf ätiologisch relevante DNA-Sequenzvarianten hinweisen, die eine nähere Aufmerksamkeit verdienen. Die systematische manuelle Durchsicht aller Cluster ist allerdings wegen der großen Zahl untersuchter SNPs in einem Hochdurchsatz-Setting nicht möglich. Daher besteht an dieser Stelle ein erheblicher Qualitätssicherungsbedarf, um Fehlzuordnungen zu erkennen und die Sicherheit bei der Interpretation von der Norm abweichender Cluster zu erhöhen. Neben statistischen bzw. informatischen Verfahrensverbesserungen kann dies z.B. auch durch Resequenzierung und eine weitergehende laborbasierte Analyse repräsentativer betroffener Proben befördert werden.

In den letzten Jahren wurden zahlreiche genomische Kopienzahlvarianten (CNVs) als neue Form der genetischen Variabilität im menschlichen Genom identifiziert. CNVs tragen zu einem Großteil der genetischen Diversität des Menschen bei und scheinen eine wichtige Rolle bei der Entstehung vieler Erkrankungen zu spielen. Gegenwärtig werden CNVs oft aus genetischen Studien ausgeschlossen, da Polymorphismen in diesen Regionen den üblichen Einschlusskriterien (siehe TP2-3) nicht genügen. Neuere Genotypisierungstechnologien tragen diesem Problem durch einen so genannten „tiling“-Ansatz Rechnung. Im Hinblick auf den zunehmenden Einschluss von CNVs in die Erstellung und Interpretation von Genotypisierungsdaten kommt also der exemplarischen Aufarbeitung nicht-kanonischer Cluster und deren Zuordnung zu CNVs eine wichtige Rolle bei der Vorbereitung auf zukünftige technische Entwicklungen zu.

Ein weiterer maßgeblicher Teil des QM von Genotypisierungsdaten ist die Dokumentation der experimentellen Bedingungen und des eingesetzten Untersuchungsmaterials (Lymphozyten, EBV-transformierte Zellen, usw.). Insbesondere muss die SNP-Orientierung gut dokumentiert werden, um die Vergleichbarkeit von Genotypisierungsdaten aus verschiedenen Studien sicherzustellen. Auch im Hinblick auf die Dokumentation und Archivierung von Genotypisierungsdaten gibt es momentan einen erheblichen Standardisierungsbedarf.

Obigen Erfordernissen entsprechend sollen im TP1 folgende Aufgaben bearbeitet werden:

  1. Vergleich und Bewertung existierender Verfahren zum Allele-Calling in Abhängigkeit von der verwendeten Genotypisierungstechnologie.
  2. Vergleich der Ein- und Ausschlusskriterien publizierter Studien an oder mit Hochdurchsatz-Genotypisierungsdaten. Aus den Anforderungen an Chip- und Calling-Qualität sollen u.a. Empfehlungen für die eingebettete Analyse von CNVs abgeleitet werden.
  3. Vergleich verschiedener existierender Algorithmen zur Analyse von CNVs. Ziel ist die Identifizierung bzw. Entwicklung von Analysemethoden, mit denen sich ohne großen zusätzlichen Aufwand Information über CNVs aus existierenden Daten gewinnen lässt.
  4. Entwicklung von Methoden für die Interpretation nicht-kanonischer Cluster in größerer Zahl, einschließlich der explorativen Aufarbeitung von SNPs mit nicht-kanonischen Clustern durch gezielte DNA-Sequenzierung repräsentativer Proben und deren Untersuchung im Hinblick auf CNVs.
  5. Formulierung von Standards für die Dokumentation und Archivierung von Genotypisierungsdaten.

zum Seitenanfang

TP2: Etablierung wissenschaftlich fundierter Plausibilitätskriterien für Genotypisierungsdaten

Auf qualitative Genotypisierungsdaten lassen sich verschiedene Plausibilitätskriterien hinsichtlich der Validität des Gesamtexperiments, der Resultate einzelner Arrays („per Person“) bzw. einzelner Assays („per SNP“) anwenden. Im Einzelnen sind nachfolgende Kriterien und Prozeduren gebräuchlich, die jedoch von einzelnen Wissenschaftlern in unterschiedlicher Weise und mit unterschiedlicher Stringenz angewandt werden.

1.    Überprüfung der Geschlechtszuordnung durch Analyse der Heterozygotie für X-chromosomale SNPs außerhalb der pseudo-autosomalen Region
2.    Überprüfung der interindividuellen Übereinstimmungen qualitativer Genotypen („identity-by-state“, IBS) zur Erkennung von Doppeltypisierungen und Verwandtschaftsbeziehungen
3.    Überprüfung der Heterozygotie im autosomalen Genom zur Identifikation von Proben aus Populationen mit allgemein erhöhter, paarweiser Verwandtschaft
4.    Prüfung spezifischer SNPs auf Abweichungen vom so genannten „Hardy-Weinberg-Gleichgewicht“ (HWE, siehe TP3) und des Anteils erfolgreicher Zuordnungen qualitativer Genotypen zu individuellen Intensitätsmessungen („Call-Rate“). Abweichungen der Genotypverteilung einzelner SNPs vom HWE können auf Fehlgenotypisierungen beruhen oder durch inadäquates  Clustering z.B. wegen CNVs oder Rearrangements verursacht werden.
5.    Elimination von Proben oder SNPs mit Call-Rates unterhalb eines gegebenen Schwellenwertes. Die sinnvolle Wahl des Schwellenwertes muss die verschiedenen möglichen Ursachen einer reduzierten Call-Rate berücksichtigen (z.B. Kontamination mit Fremd-DNA, systematische Vermischung von Proben, usw.).
6.    Bestimmung der Populationsstruktur durch multi-dimensionale Skalierung (MDS) der genomweiten IBS-Matrix. Hierdurch können „Ausreißer“ entdeckt und eliminiert werden.

Alle genannten Kriterien sind in gewissem Maße willkürlich. So finden sich in der Literatur verschiedene Festlegungen der Schwellenwerte der minimalen Call-Rate (üblich sind Werte von 90%, 95%, oder 98%) oder der Signifikanz der Abweichung vom HWE (p-Werte von 0.05, 0.01, 0.001, 0.0001 oder 0.00001), oder es werden alternative Verfahren, wie etwa eine FDR Korrektur vorgeschlagen. Ziel des TP2 ist daher die Bestandsaufnahme existierender Schwellenwerte und Korrekturverfahren sowie die Überprüfung von deren wissenschaftlicher Sinnhaftigkeit. Die Bewertung der einzelnen Verfahrensweisen erfolgt durch die Untersuchung ihres Einflusses auf vorab definierte Outcomes, z.B. die Verteilung der Signifikanz von Assoziationsanalysen. Aus den Ergebnissen sollen sinnvolle Empfehlungen für die Plausibilitätsprüfung von Hochdurchsatz-Genotypisierungsdaten erarbeitet werden. Eine erschöpfende Bearbeitung der Fragestellungen ist jedoch nur durch eine intensive Interaktion zwischen Statistik und laborbasierter Expertise möglich, d.h. die Bearbeitung der Fragestellungen wird in erheblichem Umfang auch die Re-Genotypisierung bzw. Re-Sequenzierung ausgewählter Proben erfordern. Die für TP2 verantwortlichen Kooperationspartner sind in der Lage, dies durch Ansiedelung an der gleichen Institution (MPI München) in besonderem Maße zu erfüllen.

zum Seitenanfang

 

TP3: Fehlererkennung und Fehlerkorrektur bei Genotypisierungsdaten

Das im Rahmen des NGFN begonnene Experiment zu genomweiten Assoziationsanalysen (NGFN-GWAS) umfasst ca. 25.000 DNA-Proben von Patienten aus fünf verschiedenen Krankheitsgruppen (häufige, genetisch komplexe Krankheiten) und entsprechenden Kontrollen. Jede DNA-Probe wurde für jeweils ca. 500,000 SNPs auf der Affymetrix SNP Array 5.0 bzw. Illumina HumanHap 550k Plattform genotypisiert. Fast die Hälfte der Proben wurde zusätzlich mit dem Affymetrix SNP Array 6.0 (ca. 1 Million SNPs) genotypisiert. Neben den primären Intensitätsmessungen liegen den Antragstellern auch die qualitativen Genotypen vor, die mit proprietären Algorithmen gewonnen und von den genotypisierenden Einrichtungen geliefert wurden. Das gesamte Datenvolumen beträgt ca. 8 Terabyte; die Genotypdaten machen ca. 320 Gigabyte aus. Die im Rahmen des NGFN GWAS Experiments gewonnenen Erfahrungen werden unmittelbar in die Bearbeitung des TP3 Eingang finden, dessen Gegenstand die Bewertung und Optimierung von Verfahren zur Fehlerentdeckung und -elimination bei hochvolumigen Genotypdaten ist. Hierzu sollen Optimalitätskriterien entwickelt und getestet werden mit dem Ziel, für gängige und relevante Szenarien „standardized actions and recommended procedures (SARPs)“ zu etablieren.

Die Rate erfolgreicher Genotyp-Calls ist in Verbindung mit Parametern des Clusterings (siehe TP1-2) ein aussagefähiges Qualitätskriterium. Da Genotypdaten die logische Struktur einer zweidimensionalen Matrix (SNP x DNA Probe) haben, muss zwischen der Call-Rate bezogen auf die Probe bzw. den Marker unterschieden werden. Erste sagt etwas über den Prozess der Genotypisierung aus, zweite hebt im Wesentlichen auf die Qualität der eingesetzten DNA ab. Dabei gibt es Interdependenzen, deren Charakterisierung für das QM des gesamten Genotypisierungsvorgangs bedeutsam ist und dafür genutzt werden kann.
Die zunächst als gültig akzeptierten, qualitativen Genotypen werden nachfolgend unter formalgenetischen Gesichtspunkten analysiert. Für jeden SNP werden dazu die Allelfrequenzen berechnet und mit denen der Population verglichen, der die Stichprobe entstammt. Unter gewissen formalen Anforderungen an Population und Stichprobe sollten die Genotypfrequenzen dem Hardy-Weinberg Gleichgewicht (HWE) genügen. Die Bestimmung der Abweichungen vom HWE hinsichtlich Stärke, Richtung und Signifikanz ist eine zentrale Aufgabe des QM. Dies geschieht für jeden Marker separat sowie für Gruppen eng benachbarter Marker gemeinsam. Hierbei stellt sich das Problem des multiplen Testens, für dessen Berücksichtigung verschiedene Methoden zur Verfügung stehen, die aber noch auf ihre Eignung unter unterschiedlichen Szenarien getestet werden müssen. Bei Gültigkeit des HWE sollten die p-Werte aller HWE-Tests zwischen 0 und 1 gleichverteilt sein, was mit einschlägigen Verfahren dargestellt und getestet werden kann (z.B. QQ-Plots, tail strength, higher criticism, false discovery rate usw.). Die Stärke der HWE-Abweichung kann in unterschiedlicher Weise parametrisiert werden, wobei jedes Verfahren im Zusammenhang eines QM spezielle Vor- und Nachteile aufweist. Die Richtung der Abweichung (Heterozygotendefizit oder -überschuss) ist wesentlich für die Interpretation der Befunde, weil sich hieran neben Genotypisierungsfehlern auch Mängel der Stichprobe erkennen lassen (Stratifikation, ethnische Mischung, implizite Verwandtschaft, demische Struktur usw.). Diese Gegebenheiten müssen ggf. durch weitere Analysen abgeklärt werden, z.B. durch Bestimmung der paarweisen Verwandtschafts-Koeffizienten und weiterer populationsgenetischer Kenngrößen.

Die Gesamtheit der oben benannten Parameter bietet die Möglichkeit einer umfassenden und detaillierten Beurteilung unterschiedlicher Qualitätsaspekte einer Populationsstichprobe und der aus ihr bestimmten Genotypen. Einige Parameter sind darüber hinaus in unterschiedlicher Weise voneinander abhängig und zum Teil (hoch) korreliert. Die erstmals in großer Fülle zur Verfügung stehenden Genotypisierungsdaten aus dem NGFN-GWAS Experiment gestatten eine umfassende empirische, uni- sowie multivariate Analyse der Aussagekraft der Parameter, die durch theoretische Überlegungen ergänzt werden muss. Der Einfluss von Störgrößen auf die fraglichen Zusammenhänge ist derzeit vollkommen unklar und soll im TP3 ebenfalls untersucht werden. Zielsetzung ist dabei die auch kritische Beurteilung der Eignung der vorliegenden Daten für den vorgesehenen Zweck einer genomweiten Assoziationsanalyse, d.h. die Identifizierung ätiologisch relevanter genetischer Varianten bei komplexen Krankheiten.

zum Seitenanfang

 

TP4: Daten- und Qualitätsmanagement der Replikation von Genotypisierungsstudien

Da aufgrund der geringen Effektstärke komplexer genetischer Krankheitsassoziationen die zugehörigen Signale in den initialen Stufen genomweiter Studien das geforderte  Signifikanzniveau (z.B. 510-8) oftmals nicht unterschreiten, sind eine oder mehr Runden bestätigender Untersuchungen in unabhängigen Stichproben erforderlich. Da aber eine explizite Zusammenführung der Rohdaten aus verschiedenen Stufen genomweiter Assoziationsstudien aus formalen Gründen oft nicht möglich ist, weisen solche Studien von ihrer Konzeption her viele Charakteristika von Metaanalysen auf. Die kombinierte Auswertung der einzelnen Stufen bedeutet also den Anfall großer Mengen sekundärer Daten, die sowohl Elemente der Qualitätssicherung als auch der statistischen Analyse enthalten, einschließlich der Effektschätzer, deren Standardfehler und der Signifikanzniveaus verschiedener statistischer Modelle.

Die sequentielle Replikation von Assoziationssignalen gestaltet sich oft schwierig und wenig übersichtlich, nicht zuletzt aufgrund von Eigenheiten und Unzulänglichkeiten des eigentlichen Genotypisierungsvorgangs. Dies schließt ein

•    die Genotypisierung in einzelnen Stufen mit unterschiedlichen Assays
•    den Ausfall einzelner Genotypisierungen, die eine Re-Genotypisierung gelegentlich sogar verbunden mit einem Wechsel der Genotypisierungsplattform erfordern
•    eine Erhöhung der Datenheterogenität durch primäre Generierung der Daten auf unterschiedlichen Genotypisierungsplattformen und in mehreren Zentren
•    den technischen Zwang zur Nachgenotypisierung einzelner Marker in Verbünden (“Plexen”) z.B. bei Sequenom iPlex Gold Maldi-TOF und Illumina Golden Gate Assay
•    die uneinheitliche plattformabhängige Kodierung von Allelen aufgrund fehlender Standards.

Weitere Probleme ergeben sich hinsichtlich der statistischen Bewertung der Assoziation zwischen Markergenotypen und Phänotypen, und zwar durch

•    Unterschiede in der Definition der Phänotypen zwischen den Stufen
•    die Verwendung unterschiedlicher Kovariable und Ausschlusskriterien auf verschiedenen Stufen
•    die Verwendung unterschiedlicher statistischer Modelle auf verschiedenen Stufen.

Die oben genannten Umstände erhöhen rasch die Komplexität der für eine erfolgreiche Replikation erforderlichen Sekundärdaten, insbesondere wenn mehrere Genotypisierungszentren an einer Studie beteiligt sind. Ziel des TP4 ist daher die Entwicklung

•    einer Softwarelösung für die Speicherung und Verwaltung von Sekundärdaten zu genomweiten Assoziationsstudien in einer strukturierten Datenbank
•    von Prozeduren für die zeitnahe und qualitätsgesicherte Aktualisierung und Validierung von Sekundärdaten
•    einer geeigneten Analyse- und Präsentationsplattform für die Replikation genomweiter Assoziationsstudien
•    von Algorithmen  zur Prozessplanung und -unterstützung (z.B. Genotypisierung) für die Replikation genomweiter Assoziationsstudien.

Vor der Projektrealisierung wird ein entsprechendes Pflichtenheft erstellt, das allen Projektpartnern zur Verfügung gestellt und mit diesen gemeinsam diskutiert und optimiert wird. Anschließend werden Lösungen entwickelt und zwecks Evaluierung durch die Projektpartner in deren Einrichtungen implementiert. Auf der Grundlage der dabei gemachten Erfahrungen wird ein erweitertes Pflichtenheft erstellt, das im  letzten Teil des TP4 in eine finale Softwarelösung umgesetzt wird.

zum Seitenanfang

 

TP5: Primärdatenstrukturen, Haltung und Transfer von Genotypisierungsdaten

Eine weitere Voraussetzung für die wissenschaftliche Nutzbarkeit von Hochdurchsatz-Genotypisierungsdaten ist deren qualitätskontrollierter Transfer zwischen den verschiedenen Daten erzeugenden und Daten haltenden Stellen sowie deren effiziente und sichere Bereitstellung und Speicherung. Im Rahmen des beantragten Projekts sollen zunächst eine Bestandsaufnahme aller existierenden Systeme und Protokolle hierfür durchgeführt und diese vergleichend evaluiert werden. Ziel des TP5 ist die Erarbeitung einer begründeten Empfehlung für ein Datenhaltungs- und Transfersystem bzw. die darüber hinausgehende Anpassung solcher Systeme an die im Rahmen der TP1-3 definierten Qualitätsstandards.

Zur Erreichung des Projektziels sollen die folgenden Aufgaben bearbeitet werden:

1.    Definition von Formaten für die Haltung von Hochdurchsatz-Genotypisierungsdaten. Dabei geht es auch um die Frage, ob und wann für solche Daten eine integrierte (generische) Haltung möglich und sinnvoll ist.
2.    Anforderungen an die effiziente Speicherung von Genotypisierungsdaten, insbesondere im Hinblick auf die Entscheidung zwischen Datenbanksystemen, Speicherung in Flatfiles oder Hybridlösungen. Für Speicherplatz und Zugriffsgeschwindigkeit der Datenhaltungslösung sollen entsprechende Testprozeduren entwickelt werden.
3.    Hardwareanforderungen an den Umgang mit Hochdurchsatz-Genotypisierungsdaten. Aus bisheriger Erfahrung werden die Speicherplatzanforderungen für Original- und abgeleitete Daten abgeschätzt und die für das Datenmanagement erforderlichen Rechnerleistungen bewertet. Verschiedene Transportmedien (online bzw. offline) werden im Hinblick auf ihre Eignung für den Transfer von Genotypisierungsdaten untersucht.
4.    Backup- bzw. Archivierungssysteme für Hochdurchsatz-Genotypisierungsdaten. Die Wahl der hierfür geeigneten Medien wird sich an den erwarteten Datenmengen orientieren müssen. Mit steigender Datenmenge, insbesondere mit der Verfügbarkeit von Sequenzdaten, müssen die Backupzeiten kurz gehalten werden. Zudem muss abgeschätzt werden, ob hierfür eine komplette oder inkrementelle Backup- und Archivierungslösung vorzusehen ist und ob diese automatisch oder manuell sein soll.
5.    Anforderungen an den Datenschutz von Genotypisierungsdaten. Hochdurchsatz-Genotypisierungsdaten gewinnen durch ihre starke Spezifität eine besondere Brisanz im Hinblick auf den Datenschutz. Es soll daher ein mehrstufiges Berechtigungskonzept für den Umgang mit solchen Daten entwickelt werden, das Datenschutzanforderungen ebenso gerecht wird wie wissenschaftlichen Notwendigkeiten.
6.    Funktionelle Ausgestaltung des QM von Genotypisierungsdaten. Dieser Teilaspekt widmet sich der Frage, welche User-Interfaces für die Kontrollprozesse besonders geeignet sind (graphisch oder batch-orientiert), und ob eventuell Standardroutinen für eine automatische Qualitätskontrolle empfehlenswert sind.
7.    Qualitätsaspekte der Schnittstellendefinition, einschließlich der Übergabe begleitender Annotationsdaten. Auf der Exportseite sollen im Rahmen des TP4 möglichst robuste, effiziente und gegen Fehler unanfällige Datenaustauschformate und Codierungsroutinen entwickelt werden.
8.    Qualitätsaspekte der Datenhaltung. Neben Plausibilitätskontrollen für den Import der Daten werden Vorgaben und Verfahren zur Dokumentation und zum kontinuierlichen Test der verwendeten Programm- und Formatversionen sowie aller Exportroutinen entwickelt.

zum Seitenanfang

 

TP6: Administrative Projektkoordination durch die TMF

Die Verzahnung der unterschiedlichen Teilprojekte und die Abhängigkeiten der Milestones voneinander machen ein übergreifendes Projekt- und Qualitätsmanagement erforderlich. Die wissenschaftliche Projektleitung übernimmt der Antragsteller. Die TMF koordiniert und kontrolliert von administrativer Seite den Projektablauf und übernimmt dabei die folgenden Aufgaben:

Fristenmanagement:

Die TMF-Geschäftsstelle übernimmt die Kontrolle der Einhaltung von Fristen und ggf. konsistente Anpassung der Fristen in Absprache mit allen Betroffenen. Deliverables:

1.    Projektplan inkl. Milestones, Deliverables, Ressourcenplanung und Festlegung des kritischen Pfades
2.    Schriftliche Dokumentation über Vereinbarungen zu Fristanpassungen

Organisation und Kommunikation:

Über die Kommunikationsplattform TMF wird die Organisation und Koordination der über¬greifenden Kommunikation, d.h. Informationsfluss quer über die Teilprojekte hinweg bzgl. Status und Inhalt der Milestones gewährleistet. Deliverables:

3.    TMF-Webseite als Austauschplattform
4.    Online-Team-Room mit allen relevanten Dokumenten
5.    Vierteljährliche Telefonkonferenzen mit den Teilprojekt-Verantwortlichen
6.    Abschluss-Workshop

Qualitätsmanagement:

Die TMF bietet ein inhaltliches Reviewing von Zwischenergebnissen sowie eine sprachlich und for¬mal hochwertige und homogene Darstellung von Ergebnissen an. Die Berichtspflicht gegenüber dem BMBF und PT-DLR wird durch die TMF-Geschäftsstelle übernommen. Deliverables:

7.    Regelmäßiges Reviewing in den TMF-Arbeitsgruppen und im TMF-Vorstand
8.    Bereitstellung von Dokumenten-Formatvorlagen für Zwischenberichte an das BMBF
9.    Übernahme der Berichtspflicht gegenüber dem BMBF und PT-DLR
10.    Lektorat und Formatieren sämtlicher Enddokumente (siehe auch Kapitel 7)
 

Vertragsmanagement:

11.    Die TMF übernimmt die Vorbereitung und Abstimmung der einzelnen Aufgaben der an der Ausschreibung beteiligten Partner in einem Konsortialvertrag (inkl. Sanktionsmöglichkeit bei Terminverzug)
Zur besseren Abstimmung des Projekts mit gleichzeitig stattfindenden internationalen Aktivitäten zum selben Thema wird ein mit vier international ausgewiesenen Experten besetztes Advisory Board etabliert (siehe Anlage 3), das regelmäßig von den Kooperationspartnern über den Fortgang ihrer Arbeiten informiert wird. Aufgabe des Advisory Board ist die Beurteilung der Kompetitivität, Validität und Aktualität der Projektergebnisse. Seine Arbeit wird durch die TMF koordiniert und ist ein wesentliches Instrument des Projektmonitorings.

zum Seitenanfang

Seite drucken      Seitenanfang  Copyright 2008 by TMF