Klinische Forschung

Newsletter

Tipps, Trends & News für die pharmazeutische Industrie rund um das Thema Klinische Forschung.

Newsletter Klinische Forschung


Bleiben Sie mit dem Newsletter Klinische Forschung des FORUM Instituts immer auf dem aktuellen Stand! 

Mit diesem Newsletter bieten wir allen Fach- und Führungskräften in der Klinischen Forschung - aber selbstverständlich auch allen Mitarbeitern angrenzender Wissensbereiche, wie Qualitätsmanagement, Medical Affairs, Regulatory Affairs sowie Pharmakovigilanz - die Möglichkeit, sich über aktuelle Tipps, Trends und News in der KliFo auf dem Laufenden zu halten. 

Sie beziehen den Newsletter Klinische Forschung noch nicht? Sie kennen Kollegen, die den Newsletter Klinische Forschung noch nicht beziehen und von dem regelmäßigen Update profitieren könnten? Dann empfehlen Sie uns gerne weiter!



>> Aktuelle Seminare im Bereich Klinische Forschung

Direkt zur persönlichen Beratung

Regine Görner
Stellv. Bereichsleiterin Healthcare

+49 6221 500-640
r.goerner@forum-institut.de

Juni 2022

   Hier finden Sie den gesamten Newsletter

 

EU CTR: How to write a good Lay Summary of clinical study results

 von Dr. Ramona Schütz | GKM Gesellschaft für Therapieforschung mbH
Dieser Artikel wurde zuerst publiziert unter https://www.clinfo.eu - free knowledgebase in clinical research, from practitioners for practitioners  
 
What are Lay Summaries and what is the aim?
 
Lay summaries are a display of clinical study results intended for study participants and the general public. The aim of a lay summary is not only to enhance understanding of complex medical information, but also to increase transparency in clinical research. This effort is supported by an increasing interest of study participants in study results and call for greater transparency. Providing a lay summary for all clinical trials – irrespective of the clinical trial phase and outcomes – is for the first time a mandatory requirement by the European Union Clinical Trials Regulation (EU CTR) 536/20143 and came fully into force by end of January 2022. ...

   Hier können Sie den Fachartikel als PDF herunterladen.
 

März 2022

   Hier finden Sie den gesamten Newsletter


Neue EU-Verordnung über klinische Prüfungen gilt ab 31. Januar 2022

von Prof. Burkhard Sträter 
Dieser Artikel wurde zuerst publiziert in der Pharm. Ind. 84, Nr. 1, 15–19 (2022).

Die Verordnung (EU) Nr. 536/2014 über klinische Prüfungen mit Humanarzneimitteln und zur Aufhebung der Richtlinie 2001/20/EG ist schon am 27. Mai 2014 in Kraft getreten. Sie ist aber dennoch neu, weil sie erst ab 31. Januar 2022 gilt. Im deutschen Sprachverständnis würde man das Wort „Inkrafttreten“ für den Fall verwenden, in dem die Regelung auch Geltung beansprucht. Dem ist nach Europäischem Recht nicht so.

  Hier können Sie den Fachartikel als PDF herunterladen



 

Juni 2021



   Hier finden Sie den gesamten Newsletter.


Tag der klinischen Forschung 2021

von Regine Görner

Am 19. und 20. Mai 2021 fand der Tag der Klinischen Forschung statt – das zweite Mal pandemiebedingt in einem digitalen Format.
 
Eingeläutet wurde die Weiterbildung von Dr. Matthias Klüglich, Head Clinical Research France von Boehringer Ingelheim, mit einem Vortrag zu den aktuellen Herausforderungen im Management der Klinischen Forschung. Was heißt Management in der Pandemiezeit und wie kann man – trotz Homeoffice und sozialer Distanz – ein gutes und nachhaltiges Management seines Teams sicherstellen? Er plauderte aus dem Nähkästchen, welche Erfahrungen er die letzten anderthalb Jahre gemacht hat und gab Tipps, wie sich das ein oder andere Problem angehen lässt, um die „Moral hochzuhalten“. Hilfreich waren dabei auch die zahlreichen Literaturhinweise zu einzelnen Management-Methoden, welche er den Teilnehmern der Tagung mit auf den Weg gab.
 
Dr. Wolfgang Summa, Head of CMO Informatics von der Merck Healthcare KGaA, widmete sich im Anschluss der Digitalisierung und den „elektronischen“ klinischen Prüfungen. Rund 30-40% aller durchgeführten Studien beinhalten derzeit Wearables (tragbare technische Geräte) jeglicher Art, die zur Unterstützung eingesetzt werden. Ein Problem, welches alle Wearables gemeinsam haben, ist jedoch mangelnde Compliance beim Patienten. Inzwischen gibt es hier viel Bewegung in der Designentwicklung der Geräte, um diese deutlich attraktiver (z.B. in der Optik eines Schmuckstücks) für den Patienten zu gestalten. Eine weitere Schwierigkeit dieser Geräte stellen auch die Rohdatenmengen dar, welche generiert werden. Hier wird die Nutzung von Artificial Intelligence vorangetrieben, um sinnvolle, auswertbare Daten zu generieren. Im Bereich Alzheimer- und Parkinson-Therapie ist dies heute bereits im Einsatz.
 
Ein weiteres Thema, welches Herr Dr. Summa mit dem Auditorium diskutierte, war die Nutzung von Social Media zur Patientenrekrutierung. Bei chronischen oder seltenen Erkrankungen stellt dies ein gutes Mittel dar, da diese Patienten im Netz sehr aktiv sind. Er warnte aber vor der Annahme, dass die Anzahl im Netz gefundener Patienten und die Anzahl derer, die in klinischen Prüfungen tatsächlich eingeschlossenen werden können, sehr stark differiert.
 
Als letzter Punkt seines Vortrags wurde die Bedeutung von Real World Data zur Optimierung von Studienprotokollen bzw. des Studiendesigns besprochen. Auch hier sind bereits Tools im Einsatz, welche mit Hilfe von Real World-Datenbanken eine Modellierung der Ein- und Ausschlusskriterien klinischer Studien unter Datenschutzbedingungen erfolgreich managen können.
 
Frau Dr. Aylin Mende vom Bundesinstitut für Arzneimittel und Medizinprodukte läutete dann mit ihrem Beitrag das regulatorische Update ein. Sie berichtete über den aktuellen Stand hinsichtlich der Regeln für klinische Prüfungen zu Pandemiezeiten. In Prüfplänen wird künftig auch ein Pandemie-Passus zu finden sein. Sie rät hierzu allen Antragsstellern, das Konzept und das methodische Vorgehen, welches darin ausformuliert werden muss, im Vorfeld gut zu durchdenken, da die Behörde dies in Zukunft im Rahmen der Bewertung ebenfalls prüfen wird.
 
Angesprochen wurde auch die Auswirkungen des Brexit auf klinische Prüfungen und die Verantwortlichkeiten der Sponsoren. Der regulatorische Aufwand war für beide Seiten – Firmen und Behörden – in den Monaten davor sehr belastend; die Situation hat sich inzwischen jedoch gut eingespielt. Lediglich Datenschutzfragen werden zwischen Großbritannien und der EU noch immer heiß diskutiert, da es derzeit dazu noch kein Abkommen gibt.
 
Bei der anstehenden Revision R3 von ICH E6 ist ebenfalls noch vieles in der Schwebe. Ein erster Draft wird in diesem Jahr erwartet. Vermutlich wird die aktuelle Konferenz der ICH, die in diesen Tagen ebenfalls stattfindet, mehr Informationen dazu bringen, auch hinsichtlich der dann bevorstehenden Timelines.
 
Frau Dr. Mende gab ebenfalls ein Update über den aktuellen Stand der Clinical Trials Regulation und das Clinical Trial Information System (CTIS). Das Go-live ist für den 31. Januar 2022 geplant, so dass ab da die EU-Verordnung 536/2014 zur Anwendung kommt.
Die Funktionalität des Portals sehen jedoch alle Beteiligten als sehr kritisch an, da derzeit noch kein Verfahren komplett im Testlauf durchgespielt wurde und somit unklar ist, inwieweit die Prozesse glatt ablaufen. Frau Dr. Mende riet allen Firmen, sich frühzeitig mit dem Portal zu befassen, um sicherzustellen, dass der Ablauf klappt, sobald mit dem Portal gearbeitet werden kann.
 
Das Thema EU-Verordnung und CTIS beleuchtete im Anschluss auch Dr. Thorsten Ruppert vom Verband der forschenden Arzneimittelhersteller (vfa). Er bildete in seinem Vortrag nochmals die wichtigen Eckpunkte ab und verdeutlichte die Herausforderungen für Sponsoren in klinischen Prüfungen. Das Portal kennt keine Gnade, wenn Timelines nicht eingehalten werden. Allerdings ist Deutschland durch die bereits erfolgten Anpassungen im nationalen Gesetz derzeit gut aufgestellt.
Hinsichtlich des CTIS mahnte Dr. Ruppert, dass das User Management in den Organisationen von Beginn an gut organisiert werden muss, um das Portal fristgerecht mit allen Informationen zu „füttern“ und auch die feinziselierten Berichtspflichten, die gefordert werden, einzuhalten. Allerdings äußerte auch er Kritik an der Funktionalität des Systems, da derzeit provisorische „Workarounds“ genutzt werden müssten und er die Sorge trägt, dass dies nicht die Übergangs-, sondern die Dauerlösung für die Firmen werden könnte. Auf Basis dessen werden vermutlich nur 10% der eingereichten Studien als „early adopter“ über die neue Regelung laufen; die restlichen werden vermutlich noch nach alter Regelung vor Anwendung der EU-Verordnung eingereicht und dann später im Verlauf umgestellt.












Mit einem Statement zu den Auswirkungen der Corona-Pandemie auf klinische Prüfungen schloss Dr. Thorsten Ruppert den ersten Veranstaltungstag fachlich. Der Verband beobachtet eine Neuausrichtung der Industrie, denn die Pandemie triggerte zweifelsohne dezentrale Vorgehensweisen in klinischen Prüfungen. So werden home delivery oder home nursing über kurz oder lang sicheren Einzug in die Klinische Forschung halten.
 
Nach einer kurzen Pause startete dann das Abendprogramm – eine virtuelle Weinprobe. Der Sommelier entführte die Teilnehmer mit allerhand Wissenswertem in die Welt der Rebsorten und sorgte mit den verkosteten Weinen und den dazugehörigen Informationen für einen entspannten Ausklang des ersten Veranstaltungstages. 
 
Der zweite Tag startete am anderen Morgen mit Martin Hausten, Head of Global Documentation Centre bei Boehringer Ingelheim, sowie dem Thema Dokumentation und Archivierung klinischer Prüfungen. Fakt ist, dass die Komplexität in der Dokumentation zunimmt, auch wenn die steigende Anzahl an elektronischer Dokumentation den Austausch zwischen Sponsor und Prüfzentren mittlerweile vereinfacht. Er diskutierte mit dem Auditorium die Vor- und Nachteile der Nutzung von Sponsor- oder CRO-Systemen und alle waren sich einig, dass Systeme, die mittels künstlicher Intelligenz Dokumente erkennen, strukturieren und korrekt ablegen können, die Zukunft werden. Noch sind die ersten „Prototypen“ jedoch sehr fehleranfällig, so dass kein Weg an einem aktiven Trial Master File-Management vorbeigeht.
 
Ein kritischer Faktor bei der Dokumentation und Archivierung klinischer Prüfungen ist auch die E-Mail-Kommunikation. Die Herausforderung ist, die Informationen in einem generischen Format zu speichern, um diese auch nach 25 Jahren und länger lesen zu können. Hier ist die Umwandlung in ein PDF-File nach wie vor die sicherste, wenn auch mühsamste Variante.
 
Der zweite Vortrag widmete sich dem Thema Central Data Monitoring. Andrea Dworschak von der UCB Biosciences gab den Teilnehmern einen Einblick in die Grundlagen des Risk-based Monitoring und ließ alle Beteiligten an den Ergebnissen der aktuellen Transcelerate-Umfrage teilhaben, in welchen Teilbereichen der risikobasierte Ansatz in der Industrie bereits umgesetzt wird.
Sie berichtete ausführlich von ihrer eigenen Arbeit und stellte dar, wie man bei der Auswahl sinnvoller Quality Tolerance Limits (QTL) und Key Risk Indicators (KRI) in der Praxis vorgeht. Sie zeigte anhand anschaulicher Beispiele sehr eindrücklich, wie eine zentrale Datenanalyse funktioniert, um potentielle Risiken in einer Studie frühzeitig zu erkennen und das Studienteam gezielt darauf ansetzen zu können.
 
Aber auch die Implementierung eines Central Data Monitorings im Unternehmen war Thema. Welche Kernüberlegungen müssen sich Firmen stellen? Macht es Sinn für das Risiko-
management eine eigene, übergeordnete Abteilung ins Leben zu rufen oder sollte man die Tätigkeit an vorhandene Positionen im Unternehmen andocken? Wie muss eine effiziente Abstimmung mit anderen Abteilungen ablaufen? Und welche Voraussetzungen müssen hinsichtlich vorhandener Technologie und dem Budget gegeben sein? „Der Erfolg des Risikomanagements“, so Andrea Dworschak, „steigt und fällt mit ganz essentiellen Dingen: Zusammenarbeit zwischen Sponsor und CRO, ausreichend Budget und immer wieder Adaption bei neuen Risiken.“
 
Antworten auf eine fast philosophische Frage gab dann Dr. Steffi Hansen, Director Quality Assurance bei der Vakzine Projekt Management GmbH. Wird der Projektmanager (PM) durch das Risikomanagement künftig zum Qualitätsmanager (QM)? Ja und nein, denn ein bisschen QM sollte in jedem stecken, der mit klinischen Prüfungen zu tun hat. Risikomanagement funktioniert nur im Team und beginnt bereits bei der Erstellung der Studiensynopse. Neben PM und QM sollte immer auch die Expertise aus Medizin und Biometrie eingeholt werden (ggf. zu einem späteren Zeitpunkt sogar die der CRO). Man sollte im Kopf behalten, dass ein Restrisiko bestehen bleibt und immer wieder eine periodische Neubewertung von Risiken nötig ist.
 
Neben der reinen Studienebene war es Frau Dr. Hansen aber auch wichtig zu betonen, dass man die Meta-Ebene nicht vergisst. Ausreichend Ressourcen – da konnte sie ihrer Vorred-
nerin nur zustimmen – sind ebenso essentiell, wie das uneingeschränkte Commitment des Managements. Nur, wenn man das Risikomanagement auch zur Chefsache erklärt, kann es erfolgreich werden.
 
In den Endspurt der Tagung startete abschließend Rita Hattemer-Apostel, CEO bei der verdandi AG. Nicht nur das Studienmanagement selbst unterliegt einem risikobasierten Ansatz. Auch die Planung von Auditprogrammen erfolgt nach Abwägung und Bewertung möglicher Risikofaktoren. Sie stellte den Teilnehmern zunächst zahlreiche Dokumente vor, auf welchen das Risikomanagement fußen sollte, sowohl im GCP- als auch bedingt durch die Prüfmedikation im GMP-Bereich. Und das waren nicht wenige.
 
Wie plant man nun ein Auditprogramm risikobasiert? Früher stand am Jahresanfang eine statische Planung und diese wurde abgearbeitet. Heute auditiert man nach der Prämisse „fit for purpose“. Wo liegt das (höchste) Risiko? Welche Auswirkungen kann ein Vorfall haben? Und welche Risiken haben sich während der Laufzeit einer Studie verändert?
Das Auditmanagement wird also flexibler und aufwändiger, da risikobasiertes Handeln deutlich mehr Zeit zur Vorbereitung benötigt. Mit Remote Audits hat man auf der anderen Seite aber den Vorteil der Zeitersparnis, was den Reiseaufwand angeht. Insbesondere, wenn es sich um Routine-Überprüfungen handelt und ein Unternehmen elektronisch gut aufgestellt ist, hält Rita Hattemer-Apostel „remote“ für ein gutes Mittel, um Gelder und Aufwand letzten Endes so zu verwenden, dass der Effekt der Qualitätssicherung am Größten ist.
 
Mit dieser Diskussion endete der zweite Veranstaltungstag und somit auch der 16. „Tag der Klinischen Forschung“. Die Teilnehmer, aber auch die Referenten haben die komplette Tagungs-Zeit genutzt, Fragen zu den einzelnen Themenfeldern zu stellen und ihre unterschiedlichen Ansichten umfassend zu diskutieren.

März 2021



   Hier finden Sie den gesamten Newsletter.


Remote Audits im GCP-Bereich


Am 18. Februar 2020 fand das Online-Seminar „Remote Audits im GCP-Bereich“ statt.
Rita Hattemer-Apostel, CEO der Verdandi AG, gab den Teilnehmern einen umfassenden Einblick in die Thematik und hilfreiche Tipps, was dazu gehört, ein Remote Audit erfolgreich durchzuführen.

Die erste Frage in der Planungsphase muss lauten: Was will ich mit dem Audit bezwecken? Danach kann entschieden werden, ob zu diesem Zweck eine Überprüfung remote möglich ist oder ob dies nicht sinnvoll erscheint. Gegebenenfalls muss das Audit auch in zwei Schritten erfolgen – vorab remote für alle Fragestellungen, die sich virtuell klären lassen und dem nachgeschaltet zu einem späteren Zeitpunkt on-site, also direkt vor Ort, um zum Beispiel Originaldaten zu überprüfen. Generell gilt, die Planung eines Remote Audits ist sehr aufwändig und wird auch durch die Einsparung der Reisezeiten nicht kompensiert. Aber eine sehr gute Vorbereitung ist auch die Voraussetzung für ein zielführendes und erfolgreiches Remote Audit.

Mit das Wichtigste ist sicher der uneingeschränkte Zugang zu den nötigen Dokumenten. Diese sollte man sich, so Frau Hattemer-Apostel, immer mit deutlichem zeitlichen Puffer vorab zur Verfügung stellen lassen, um sich mit diesen ausführlich (und offline) beschäftigen zu können. Während des Remote Audits fokussiert man sich dann auf die Fragenklärung. Eine große Rolle spielt auch das Format der Dokumente. Es sollte gängig sein, um einfachen Zugriff zu erhalten. Sie berichtete von Auditerlebnissen, in welchen das nicht der Fall war, und gab Lösungsansätze, wie man solche Unwägbarkeiten vermeiden kann. Sie riet auch dazu, sich bereits vorab ausführlich darüber zu informieren, welche elektronischen Systeme die zu auditierende Stelle im Einsatz hat, und wie deren Validierungsstatus ist. Gerade bei Validierungsfragen treten immer wieder Missverständnisse und Probleme auf, welche das Remote Audit verzögern. Oft sind auch für die Auditoren Trainings nötig, um sich in den Systemen der Auditees für eine Überprüfung von Prozessen und Dokumenten zurechtzufinden – ein großer Zeitfresser, wenn man dies nicht vorab bei der Planung und Vorbereitung berücksichtigt.

Auch die eingeschränkte Kommunikation ist für Remote Audits eher nachteilig. Alles Zwischenmenschliche, was sonst bei einem „normalen“ Audit hilfreich sein kann, wie Körpersprache, Mimik und Reaktion, fehlt. Oder es kommt in Interviewsituationen mit den Auditierten zu Komplikationen, weil die Sprache zeitversetzt über den Bildschirm übermittelt wird und so kein „flüssiges“ Interview mehr möglich ist. Aber auch Absprachen unter den einzelnen Auditoren werden aufgrund von mangelnder non-verbaler Kommunikation erschwert. Hier ist eine festgelegte Rollenverteilung im Auditorenteam essentiell. Generell sind Remote Audits in dieser Phase viel anstrengender und fokussierter.







Was die Begehung einer Einrichtung angeht, so hat Frau Hattemer-Apostel hier eine klare Meinung dazu. Nur wenn z. B. ein virtueller kamerageführter Rundgang (oder andere kreative Alternativen) auch einen Mehrwert für das Audit bringen, ist dieser sinnvoll. Sollte das nicht der Fall sein, investiert man seine Audit-Zeit besser in andere Aspekte und holt die Ortsbegehung bei einem zweiten On-site-Termin nach.

Eine echte Herausforderung und immer wieder Stoff für zahlreiche Diskussionen ist auch der Datenschutz in Remote Audits. Ein Remote Audit am Prüfzentrum gestaltet sich sehr schwierig, da der Investigator Site File meist papierbasiert und nicht digitalisiert vorliegt. Hier ist das Zugänglich machen der Daten elektronisch fast nicht möglich – nur pseudonymisiert, dann wären die Dokumente aber wiederum nicht mehr „Source“. Zudem sind die Datenschutzvorgaben auch je nach Land unterschiedlich geregelt. Frau Hattemer-Apostel rät allen, welche ein solches Remote Audit an einem Prüfzentrum planen, sich unbedingt vorab damit auseinanderzusetzen, was machbar wäre und was nicht. In letzter Instanz obliegt die (Datenschutz-)Verantwortung der erhobenen Patientendaten aber dem Investigator, auch wenn das vielen Prüfzentren gar nicht so klar ist.

Das Closing Meeting eines Remote Audits sollte ebenfalls sorgfältig vorbereitet werden, da hier nochmals die wichtigsten Dinge adressiert und am Besten geclustert mit den Auditees besprochen werden. 

Im Rahmen der Audit-Nachbereitung wies die Referentin auch nochmals auf andere Möglichkeiten einer Vendorqualifizierung hin, welche Sponsoren in klinischen Prüfungen zur Verfügung stehen. Komplette (Remote-)Audits sind nur eine Maßnahme. Je nach Risikoabhängigkeit für die klinische Prüfung könnten auch Questionaires, einfache Interviews mittel Telefonkonferenzen oder Ähnliches ausreichen, um Vendoren auf ihr Qualitätsmanagementsystem hin zu überprüfen. Es müssen nicht immer die klassischen Audits sein.

Zum Abschluss teilte Frau Hattemer-Apostel nochmals ein paar Erfahrungen mit dem Auditorium und wies auf Dos, aber auch auf Don’ts hin, welche einem Remote Audit den letzten „Schliff“ verleihen. Sowohl die Referentin als auch die Teilnehmer waren sich am Ende einig, dass Remote Audits eine große Chance darstellen für das Qualitätsmanagementsystem und sicher auch nach der Pandemie weiterhin Bestand haben werden. 

Autor:
Regine Görner
Stellv. Bereichsleiterin Pharma & Healthcare
r.goerner@forum-institut.de



 

September 2020




   Hier finden Sie den gesamten Newsletter. 
 

AWB und PASS als NIS oder klinische Prüfung?

Empfehlungen der Bundesoberbehörden – Bedeutung für AwDs nach dem SGB V
 
von Prof. Burkhard Sträter

Dieser Artikel wurde zuerst publiziert in der Pharm.Ind. 82, Nr. 6, 675-677 (2020).
 
Nach langer Wartezeit haben das Paul-Ehrlich-Institut (PEI) und das Bundesinstitut für   Arzneimittel und Medizinprodukte (BfArM) am 20.12.2019 „Gemeinsame Empfehlungen zu Anwendungsbeobachtungen nach § 67 Abs. 6 AMG und zur Anzeige von nicht-interventionellen Unbedenklichkeitsprüfungen nach § 63f AMG“ vorgelegt. Die Empfehlungen haben für die praktische Durchführung von Studien erhebliche Bedeutung. 


    Hier können Sie den Fachartikel als pdf herunterladen. 

 

Juni 2020

Hier finden Sie den gesamten Newsletter.

 

Tag der Klinischen Forschung 2020

 
Am 13. und 14. Mai 2020 fand zum 15. Mal in Folge die Jahrestagung „Tag der Klinischen Forschung“ statt. Anders als geplant konnte das Jubiläum aufgrund der aktuellen COVID-19-Lage nicht vor Ort in Köln begangen werden, sondern die Referenten und Teilnehmer trafen sich dieses Mal rein virtuell im Online-Format.
 
Nach der Eröffnung durch den Tagungsleiter, Dr. Matthias Klüglich, Head Clinical Research France von Boehringer Ingelheim, beleuchtete Dr. Thomas Sudhop, Facharzt für klinische Pharmakologie und Leiter der Abteilung Wissenschaftlicher Service beim Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM), zunächst die Abgrenzung der einzelnen Studientypen. Er erläuterte gängige Studienformen, wie klinische und nicht-interventionelle Prüfungen, Anwendungsbeobachtungen, PASS und PAES und griff insbesondere auch Registerstudien nochmals gezielt auf, da diese mit den regulatorischen Forderungen des G-BA aus letzter Zeit weiter in den Fokus gerückt sind.
 
Er informierte die Teilnehmer ebenfalls über die Fusion von BfArM und DIMDI zum 26. Mai 2020. Auch wenn noch nicht alle Änderungen final kommuniziert werden konnten, gab er Einblick in spannende Verschiebungen zwischen den beiden Instituten sowie Umstrukturierungen im BfArM.
 
Mit einem Update zur EU-Verordnung 536/2014 (Clinical Trials Regulation) schloss Dr. Sudhop seinen Vortrag. Die geplanten Audits zur Überprüfung der Funktionsfähigkeit des Clinical Trial Management Systems beginnen im Dezember 2020, so dass im günstigsten Fall mit einer Anwendung der Verordnung im letzten Quartal 2021 zu rechnen ist. Der Druck auf die EU-Kommission den Fortgang des Portals voran zu treiben wird stärker, die Auswirkungen der aktuellen COVID-19-Lage sind darauf jedoch noch nicht abzusehen. Er selbst geht daher davon aus, dass die EU-Verordnung erst im Frühjahr 2022 zu Anwendung kommen wird.
 
Dr. Jens Peters, Geschäftsfeldleiter Klinische Forschung des BPI - Bundesverband der Pharmazeutischen Industrie, ging in seinem Vortrag darauf ein, was sich auf ICH-Ebene hinsichtlich klinischer Prüfungen getan hat und weiterhin tun wird. Er stellte die Anforderungen in ICH GCP E6 (R2) vor und betonte, dass alle Neuerungen den Schutz der Patienten und die Sicherstellung der Daten-Reliabilität in klinischen Prüfungen zum Ziel haben. Mit der Einführung eines risikobasierten Qualitätsmanagement-Ansatzes haben die Guideline-Vorgaben Auswirkungen auf nahezu alle Tätigkeiten in der klinischen Prüfung.
 
Die Renovierung der ICH E8 (R1) strebt den GCP-Standard auch für andere Forschungsprojekte außerhalb klinischer Prüfungen an. Dies ist in der bisherigen Umsetzung jedoch nur schwach ausgeprägt. Hier und auch bei ICH E19 (Optimisation of Safety Data Collection) erhoffen sich alle noch weitere Nachbesserungen, um die Patientensicherheit weiter zu stärken. Die geplante Neufassung der ICH E19 sehen gerade europäische Behörden kritisch, da das Vorhaben, das Berichtswesen von Sicherheitsdaten weiter zu vereinfachen, aus ihrer Sicht eher zu einer Patientengefährdung führt. Im Gegensatz zur USA haben europäische Behörden keine direkte Einsicht in Patientendaten, so dass hier eine massive Datenblindheit gefürchtet wird, wenn Nebenwirkungsfälle künftig nicht mehr in der bisherigen (ausführlichen) Form berichtet werden müssen.
 
Mit Informationen hinsichtlich der regulatorischen Neuerungen in der Medizinprodukte-Entwicklung setzte Dr. Markus Hahn, Geschäftsführer der ArtiMed Medical Consulting GmbH, den Tag fort. Er gab den Teilnehmern einen Überblick über den Status quo sowie die Medical Device Regulation (MDR), deren Anwendung nun auf das kommende Jahr verschoben wurde. Kritisch fällt seine Meinung zur geplanten Nutzbarkeit der EUDAMED-Datenbank ab Mai 2022 aus. Gemäß allen bisherigen Erfahrungen mit Datenbanken wird sich auch dieses Datum vermutlich noch weiter in die Zukunft verschieben. In seinem weiteren Vortrag erläuterte Dr. Hahn dem Auditorium ebenfalls die Inhalte des neuen Medizinprodukteanpassungsgesetzes sowie die Hintergründe für die neue Gesetzgebung. Man wollte damit insbesondere die nationalen Anforderungen in Deutschland stärken, ohne eine einheitliche EU-Regelung zu gefährden.
 
Die Problematik der fehlenden Benannten Stellen wurde ebenfalls aufgegriffen. Von ursprünglich 80 Benannten Stellen sind derzeit erst 13 unter der MDR (re-)zertifiziert worden. Dies stellt ein großes bottleneck für die Medizinprodukte-Entwicklung dar und stellt die vielen hauptsächlich klein- und mittelständischen Unternehmen im Bereich Medizintechnik (rund 93 %) vor große Herausforderungen. Dr. Hahn rät daher allen Firmen, die Verschiebung der Medical Device Regulation jetzt intensiv zu nutzen, sich gut auf die anstehenden Neuregelungen vorzubereiten.
 
Dr. Andreas Franken, zuständig für Klinische Forschung, elektronische Verfahren
und Datenschutz beim Bundesverband der Arzneimittel-Hersteller e.V. (BAH) schloss den ersten Tag mit einem Vortrag zum Datenschutz in klinischen Prüfungen. Wie muss die Einwilligung eines Prüfungsteilnehmers ausgestaltet werden, um datenschutzkonform zu sein? Darum und um die Folgen einer unwirksamen Einwilligung drehte sich die nächste Viertelstunde. Auch Fragen nach der Zweitnutzung sowie Nachnutzung von Daten wurden erörtert. Dr. Franken gab den Teilnehmern Tipps, wo man im Internet geeignete Vorlagen finden kann, die zur Verwendung bereit stehen. Ein Thema, welches immer wieder zu Diskussionen führt, ist die Definition von Anonymisierung und Pseudonymisierung. Auch hier empfahl Dr. Franken den Teilnehmern bereits bestehende Vorlagen, z.B. von der Gesellschaft für Datenschutz und Datensicherheit, zu nutzen.
 
Der letzte Teil seines Vortrags widmete sich dann dem Datenschutz im Zuge der aktuellen Corona-Situation. Hier wies Dr. Franken darauf hin, dass eine zusätzliche Datenerhebung grundsätzlich möglich sei, sofern sie der Unterbindung der Virus-Ausbreitung dient. Dies gilt auch für Prüfstellen und Patienten in klinischen Prüfungen. Wichtig ist jedoch eine
datenschutzkonforme Erhebung und die Verhältnismäßigkeit der erhobenen Daten.
Mit diesem spannenden und hoch aktuellen Thema endete der erste Tag der Veranstaltung.
 
Am Morgen des zweiten Veranstaltungstages startete Dr. Marina Mangold, CEO der Esculape - Clinical Research Profession, mit einem Überblick über die Themen Datenmanagement und Datenintegrität und deren Verbindung zum Datenschutz. Dr. Mangold stellt klar, dass auch im Datenmanagement ein Quality by design-Ansatz gelebt werden muss. Sie appellierte an die Firmenvertreter, dass Datenmanager von Beginn an bei der Studienplanung mit eingebunden werden sollten, da diese in der heutigen Zeit weit mehr einnehmen als nur die Rolle eines „Datenhüters“ und „Datensammlers“.
 
Das Datenmanagement stellt ein wichtiges Bindeglied dar zwischen Datenintegrität und Datenqualität. Viele Prozesse und Dokumente in klinischen Studien müssen gut aufeinander abgestimmt sein, damit das Projekt letzten Endes erfolgreich durchgeführt werden kann. Eng verbunden damit ist auch der Datenschutz, denn die Anwendung von Datenschutz-Grundprinzipien ist, wie man am Beispiel Datenminimierung und Datenaufbewahrung erfährt, auch in ICH bereits gefordert. Der Datenmanagementplan ist mit das wichtigste Dokument. Dieser wird oft von Auftragsforschungsinstituten in klinischen Prüfungen erstellt und verwaltet. Der Sponsor muss aber auch auf dieser Ebene seiner Gesamtverantwortlichkeit nachkommen und dafür sorgen, dass der Dreiklang zwischen Datenschutz, Datenintegrität und Datenmanagement bei der Planung und Durchführung klinischer Prüfungen funktionieren kann. Sie riet daher allen, hierauf von Beginn an zu achten, um das Setup der Studie nicht zu gefährden.
In eine ähnliche thematische Richtung ging auch der nächste Vortrag von Frank Henrichmann, Senior Executive Consultant bei QFINITY Quality Management. Er stellte zu Beginn die häufigsten Behörden-Findings in klinischen Prüfungen vor. Eine Vielzahl davon haben einen Bezug zur Datenerfassung oder dem Datenmanagement – gerade, wenn sogenannte EDC-Systeme (electronic data capture) genutzt werden. Als Grund hierfür führte er an, dass zwar jeder EDC-Systeme nutze, aber eben auch noch Papier. Dieser Medienbruch verursacht immer wieder Probleme, denn trotz elektronischem System werden viele Daten aus klinischen Studien noch manuell erfasst und das führt oft zu Fehlern. Sponsoren klinischer Prüfungen könnten viel Zeit und Geld einsparen, wenn sie auf rein elektronische System wechseln würden, denn über 90 % der Daten, welche mittels EDC-Systeme erfasste werden, sind korrekt, wie Studien belegen. Bereits Stand heute sind 60% aller Werktätigen mit dem Umgang elektronischer Geräte aufgewachsen, so Frank Henrichmann, und der turning point, an dem sich mehr Menschen mit „e“ auskennen als mit Papier, ist überschritten. Diese Chance sollten auch Pharmafirmen nutzen und ihre Prozesse daraufhin anpassen.
 
Ebenso spannend ist auch das Thema „virtual trials“, mit welchem sich viele Sponsoren gerade auseinander setzen – auch aufgrund der aktuellen COVID-19-Lage. Frank Henrichmann sieht hierin viele Vorteile: Die Daten werden direkt beim Patienten zu Hause erfasst, der Prüfer wird entlastet und mit großer Wahrscheinlichkeit steigt auch die Rekrutierungsrate in der klinischen Prüfung, wenn für Patienten die Besuche im Prüfzentrum, die mit Fahrerei und erheblichem zeitlichen Aufwand verbunden sind, wegfallen. Auch die erhobenen „source data“ würden dadurch beeinflusst, denn neben rein numerischen und strukturierten Daten wären dann auch unstrukturierte, bildgebende Daten (z. B. die Aufklärung und Einwilligungserklärung als Videostream) zu verwenden. Der ganz praktische Vorteil: Die Volumenmenge an Daten steigt an, denn neben klassischen EDC-Daten, könnte man so auch Real World Daten oder Daten aus Krankenhäusern direkt nutzen. Eine Studiensteuerung wäre sozusagen in „Echtzeit“ möglich. Die Herausforderung, die Frank Henrichmann jedoch in diesem Zusammenhang sieht, ist, die Datenintegrität sicher zu stellen. Hier wäre dann ein sogenanntes intelligentes Clinical Data Management System indiziert, welches alle Daten zusammenführen kann. Eine reine EDC-Plattform, wie man sie aktuell in klinischen Studien noch nutzt, wäre dann nicht mehr die richtige Basis.
 
Dr. Klaus Peter Kammerer, Global Head Vendor Management & Oversight bei Boehringer Ingelheim widmete sich vor der Mittagspause einem weiteren spannenden Thema, dem firmenübergreifenden Qualitäts- und Risikomanagement in klinischen Prüfungen. Er stellte klar, dass ein Sponsor nicht nur die allumfassende Übersicht über alle Daten und Prozesse in klinischen Prüfungen haben muss, sondern dass es auch zu seinen Aufgaben gehört, das Risiko hinsichtlich ausgelagerter Services zu verstehen und regelmäßig zu bewerten. Es sei ein Trugschluss, so Klaus Peter Kammerer, wenn Sponsoren glaubten, hier keine Kapazitäten mehr zu benötigen.
 
Er stellt dem Auditorium verschiedene Outsourcing-Modelle (inhouse, fully outsourced, functional service provider) vor und gab Hinweise, wie jede Firma das für sich richtige Outsourcing-Model findet. Je besser man seine eigene firmeninterne Kapazitätsplanung und -auslastung versteht und abwägt, was Sinn macht in den eigenen Reihen zu behalten, umso besser fährt man auch aus Risikomanagement-Sicht. Je nach Outsourcing-Modell können die Oversight–Pflichten sehr vielfältig sein, da sie sowohl auf Management- als auch auf Projekt- und Länderebene erfolgen müssen. Ein weiterer wichtiger Punkt ist die Oversight über Subcontractoren, welche mit ICH E6 (R2) ebenfalls verpflichtend adressiert wurde.
 
Generell, so Dr. Kammerer, setzt sich eine effektive Vendor-Oversight aus verschiedenen Aspekten zusammen. Sie erfordert eine hohe Aufmerksamkeit, die Arbeit zahlt sich aber am Ende aus. Clinical Quality Agreements sind nötig, ein regelmäßiger Dokumenten-Review und Deeskalations-Maßnahmen für den Ernstfall. Aber auch die genutzten Technologien sind wichtig sowie eine nicht zu kleinteilige Risikokontrolle gegenüber des Outsourcing-Partners.
 
Als letzter Referent der Tagung zog Prof. Dr. Sebastian Harder, Vorsitzender der Ethikkommission der Landesärztekammer Hessen sowie der Ethikkommission des Fachbereiches Medizin der Goethe-Universität in Frankfurt, am Nachmittag das Fazit aus ethischer Sicht auf die zuvor besprochenen Themen.
 
Er gab zunächst eine kurze Einführung in die Aufgaben der Ethikkommissionen in Deutschland – regulatorische und „berufsrechtliche“ Prozesse, wie zum Beispiel die Beratung von Wissenschaftlern und Ärzten sowie die Überprüfung der ethisch-wissenschaftlichen Grundsätze in Studien. Im Anschluss erläuterte er die Sicht der Ethikkommissionen auf die aktuellen und kommenden ICH-Regeln. Während ICH E6 klar, gut geregelt und aus ethischer Sicht vernünftig ausgestaltet worden ist, sieht er bei ICH E8 und E19 noch „Luft nach oben“. Die Ansätze von ICH E8 sind von den Ethikkommissionen zu begrüßen, gehen aber in der aktuellen Form noch nicht weit genug. Zu ICH E19 wünschte er sich, dass auch hier die Ethikkommissionen bei der Bewertung involviert werden. Aber es bleibt abzuwarten, wie sich die Draft-Dokumente bis zur finalen Version weiter entwickeln.
 
Prof. Harder sprach ebenfalls die Clinical Trials Regulation nochmalig an. Die Regelung ist auch für die Ethikkommissionen nicht einfach, denn es fehlt eine Art Übungsfeld. Die Datenbank steht noch nicht final und auch das Problem der Einbindung der Regierungspräsidien ist noch nicht entsprechend geklärt, was die Kommunikation hinsichtlich der Prüfstellenbewertung und -überwachung schwierig macht. Die Aufgabenverteilung der Ethikkommissionen ist definiert und hinsichtlich der Prozesse sind sie vorbereitet, so Prof. Harder. Insbesondere die Überprüfung der Qualifikation der Prüfer steht natürlich im Mittelpunkt. Sein Fazit zu Clinical Trials Regulation: Die Bewertung für Teil 2 müsste noch besser strukturiert werden, ansonsten herrscht auch bei den Ethikkommissionen gespanntes Warten hinsichtlich der neuen Anforderungen.
 
Auch das neue Verfahren der Medical Device Regulation wurde von Prof. Harder nochmals thematisiert. Die Überlegungen, warum man hier im Gegensatz zum Arzneimittelsektor das Verfahren sequentiell und zweistufig gewählt hat, sind ihm jedoch nicht ganz klar. Aufgrund der kurzen Fristen ist es für die Ethikkommissionen jedoch akzeptabel. Was er als schwierig beurteilt, sind hingegen die möglichen Konstellationen innerhalb und außerhalb der Zweckbestimmungen mit halben bzw. vollem Genehmigungsverfahren, individuelle Regelungen einzelner EU-Mitgliedsstaaten sowie Ausnahmen vom Genehmigungsverfahren (berufsrechtliche Beratung, „der gute alte § 23b MPG“). Dies wird die Ethikkommissionen vor Schwierigkeiten stellen, so prophezeite er. Hier wünschte er sich in eigener Sache, dass auch die Expertise in Sachen Medizinprodukten bei den Ethikkommissionen noch besser werden muss, um diese Studien fairer bewerten zu können.
 
Prof. Harder zog mit seinem Beitrag abschließend eine Klammer um die vielschichtigen Themen, welche in den zwei Tagen behandelt wurden. Der Tag der Klinischen Forschung 2020 ging somit zwar deutlich anders als geplant zu Ende - die Wissensvermittlung stand im Online-Format jedoch in keiner Weise den Präsenz-Tagungen der Vorjahre nach.
 
 
Regine Görner
Stellv. Bereichsleiterin Pharma & Healthcare
r.goerner@forum-institut.de

Dezember 2019

   Hier finden Sie den gesamten Newsletter. 


Moderne Arzneimittelentwicklung

Teil 1: Trial and Error oder by Design?


von Dr. med Matthias Klüglich
Erstveröffentlichung: Pharm.Ind. 81, Nr. 8, 1029-1035 (2019)

Hier können Sie den Fachartikel als pdf herunterladen. 

 

September 2019

Wie nützlich sind elektronische Gesundheitsdaten für klinische Prüfungen und medizinische Forschung?


Dr. med. Manfred Stapff
New York, NY, USA


Die Digitalisierung des Gesundheitswesens schreitet unaufhaltsam voran, angetrieben durch die Notwendigkeit, die technischen Entwicklungen der Datenerhebung, Speicherung und Analyse zur Effizienzsteigerung zu nutzen. Abhängig von gesetzlichen Zwängen, Datenschutz und der Innovationskraft eines Landes ist die Geschwindigkeit dieses Fortschritts national unterschiedlich. 2015 hatten bereits 96% aller Krankenhäuser in den USA elektronische Patientenakten eingeführt, während Deutschland sich hinsichtlich der Digitalisierung des Gesundheitswesens noch im hinteren Drittel bewegt.

Die beiden Hauptquellen für elektronische Gesundheitsdaten (Real-World-Daten, RWD) sind elektronische Krankenakten (Electronic Medical Records, EMR) und Abrechnungsdaten von Versicherungen (Claims Data, CD).

CD können Studien über die Wirtschaftlichkeit einer Behandlung oder die monetären Konsequenzen einer Diagnose oder Behandlung unterstützen, während EMR helfen, die Wirksamkeit und Sicherheit eines Arzneimittels oder den natürlichen Verlauf einer Krankheit zu verstehen.

RWD können für randomisierte klinische Studien (RCT) für die Protokollkonzeptionsphase verwendet werden, um realistische Auswahlkriterien zu entwickeln, Prüfzentren mit geeigneten Patienten zu identifizieren und am Zentrum potenzielle Studienpatienten zu identifizieren.

Randomisierte klinische Studien (RCT) finden i. d. R. in einem sehr experimentellen, oft unrealistischen Rahmen statt und schließen nur selektierte Patientenpopulationen ein, weshalb die Repräsentativität der Ergebnisse häufig infrage gestellt wird. Im Gegensatz dazu verwenden Real-World-Daten (RWD) Studiendaten aus der tatsächlichen medizinischen Praxis und sind daher realistischer.

Da RWD-Studien noch nicht das Niveau der Glaubwürdigkeit und methodischen Raffinesse von RCTs mit ihren sehr detaillierten Richtlinien und Vorschriften erreicht haben, werden sie von den Zulassungsbehörden noch nicht als alleiniger Wirksamkeitsnachweis anerkannt. Doch selbst als lediglich hypothesengenerierendes Projekt oder mit nur deskriptiver Statistik bieten RWD für Pharmafirmen die Möglichkeit kosteneffizienter Studiendurchführung und datenbasierter Entscheidungen während des gesamten Produktlebenszyklus.

Die Entwicklung von Medikamenten ist ein langer und komplexer Prozess. Der Lebenszyklus eines Arzneimittels beschränkt sich nicht nur auf klinische Studien der Phasen I bis IV, sondern beinhaltet auch Forschung über die Ursachen und Verläufe von Krankheiten, klinische Ergebnisse, langfristige Sicherheit, Verträglichkeit, optimale Behandlungsziele und neue Indikationen.

Im Laufe der letzten 10 Jahre wurden klinische Studien nicht nur immer komplizierter, sondern ihre Durchführung dauert auch immer länger [1, 2]. Während sich die Komplexität der klinischen Prüfpläne erhöht, nehmen die Machbarkeit und der Anteil an Zentren, die ihr Rekrutierungsziel erfüllen, kontinuierlich ab [3].

Klinische Forschung, insbesondere die Arzneimittelentwicklung, ist eine datengetriebene Industrie. Statistische Methoden und die Interpretation von Studienergebnissen auf Basis von p-Werten dominieren die wissenschaftliche Entscheidungsfindung. Doch intern, nämlich bei der Planung und Organisation der klinischen Forschung, nutzen Pharmafirmen und Auftragsforschungsinstitute (CRO) die verfügbaren objektiven Daten nicht in dem Maße, wie es für ein professionelles (Projekt-) Management nötig wäre.

Gesundheitsdaten stehen zunehmend in elektronischer Form zur Verfügung, insbesondere in den USA, Estland, Kanada, Dänemark, Israel und Spanien.

Leider hinkt Deutschland beim digitalen Wandel in der Gesundheit stark hinterher [4]. In den USA dagegen ist die Verwendung elektronischer Krankenakten einschließlich der Möglichkeit ihrer Verwendung für Forschungszwecke zur Verbesserung der Krankenversorgung gesetzlich vorgeschrieben (Meaningful Use, 2010) [5]. Ein weiteres Gesetz (21st Century Cures Act, 2016) verpflichtet die FDA, ein Konzept zur Verwendung elektronischer Gesundheitsdaten in Zulassungsverfahren zu entwickeln [6]. Es verwundert also nicht, dass der Großteil entsprechender Initiativen aus den USA kommt.

Bis zum Jahr 2015 hatten bereits 96% aller Krankenhäuser in den Vereinigten Staaten zertifizierte elektronische Patientenakten eingeführt [7]. Allerdings sind die elektronischen Gesundheitsdaten noch in verschiedenen Systemen verstreut an verschiedenen Orten isoliert und folgen unterschiedlichen Standards der Ontologie, Einheiten und Datenbankstrukturen. Diese Kompatibilitätsprobleme, zusammen mit der Notwendigkeit einer benutzerfreundlichen Visualisierungsplattform, erschweren die Interpretation dieser Unmenge medizinischer Informationen und deren Verwendung für die Forschung.

Insbesondere für CROs bietet die Verwendung von RWD für eine effiziente Planung von RCTs einen Wettbewerbsvorteil. Darüber hinaus eröffnen RWD-Studien den CROs ein neues Betätigungsfeld in ihrem sehr kompetitiven Umfeld.

Datenquellen: Elektronische Patientenakten im Vergleich zu Versicherungsdaten

Als RWD gelten alle Informationen, die im Rahmen einer routinemäßigen Behandlung von Patienten erhoben werden und elektronisch verfügbar sind, also elektronische Patientenakten, Laborbefunde, Genomanalysen, Verschreibungen, Abrechnungen, Register, vom Patienten selbst erhobene Daten (ePRO = electronic patient-reported outcomes), im weiteren Sinne auch Gesundheitsinformationen aus sozialen Medien und „wearables“ (Sensordaten von Smartphones, z.B. Apple Watch). Einige dieser Daten liegen in strukturierter Form vor, etwa als Datenbank mit definierten Datenfeldern und international einheitlicher Kodierung, z.B. ICD9 und ICD10 für Diagnosen. Sie können daher relativ einfach analysiert werden. Viele andere Informationen liegen zwar elektronisch vor, sind jedoch unstrukturiert, d.h. die enthaltenen Informationen sind nicht in spezifischen Datenfeldern abrufbar, z.B. Röntgenbefunde, Entlassungsbriefe. Eine der größten Herausforderungen für die Forschung mit diesen Daten stellt deshalb die Zusammenfügung von Datenbanken aus unterschiedlichen Quellen mit unterschiedlichen Formaten („mapping“) und das elektronische Auslesen unstrukturierter Information aus medizinischen-Texten (NLP= „natural language processing“) dar.

Die beiden Hauptquellen für RWD in der medizinischen Forschung sind Electronic Medical Records (EMR) und Versicherungsdaten.

EM Electronic Medical Records

EMR können als die „medizinische“ Komponente der Daten angesehen werden. Sie enthalten Angaben über Diagnosen, Untersuchungen, Laborwerte, Verschreibungen und Behandlungen entsprechend der Dokumentation eines Leistungsanbieters/Behandlers. Allerdings sind dort nur die eigenen Daten gespeichert, also keine Informationen, die von anderen Behandlern, Ärzten oder Krankenhäusern kommen.

Die Healthcare Information and Management Systems Society (HIMSS) mit Sitz in Chicago hat ein siebenstufiges Modell der „Reife“ und Nützlichkeit eines elektronischen Krankendatensystems entwickelt, das global verwendet werden kann [8]. Dabei gehen die Reifegrade von 0 (kein System) bis 7 (vollständiges System einschließlich Datensicherheit, Analyseoptionen und Desaster Recovery). Diese Graduierungen können durchaus bei der Evaluierung der Nützlichkeit für die RWD- Forschung hilfreich sein.

EM Versicherungsdaten (Claims Data)

Versicherungsdaten (Claims Data, CD) stellen den eher administrativen Teil der Krankengeschichte des Patienten dar und können ebenfalls zur Forschung verwendet werden. Sie stammen aus der Interaktion zwischen Anbieter und Zahler und enthalten Daten, die zur Leistungsvergütung erforderlich sind. Wegen der ursprünglich zahlungsbezogenen Intention können die Daten auf für die Abrechnung erforderliche Informationen begrenzt sein. Der Vorteil ist allerdings, dass Versicherungsdaten üblicherweise alle über einen Patienten verfügbaren Informationen aus verschiedenen Quellen (Leistungsanbieter, die der Patient besucht hat) enthalten (Tab. 1).

Als Faustregel kann gelten, dass Versicherungsdaten besser diejenigen Fragestellungen unterstützen, die sich mit ökonomischen Effekten und Kosten von Krankheiten oder Behandlungen beschäftigen.

EMR sind dagegen besser geeignet, wenn es um die Wirksamkeit und Verträglichkeit von Therapieprinzipien geht, für klinische Beobachtungsstudien oder Vergleiche zwischen Kohorten.

Für Langzeitstudien ist es essenziell, die Kontinuität der Repräsentation der Patienten in der jeweiligen Datenquelle zu beachten [9]. Hierbei ist es von Bedeutung, ob Patienten öfter ihren Versicherer wechseln (meistens verbunden mit dem Arbeitgeber) oder ihren Arzt (oft verbunden mit dem Wohnort). Eine kürzlich publizierte Studie fand heraus, dass im staatlichen National Health System sich etwa 25% der Patienten innerhalb von 12 Monaten bei mindestens einem weiteren Gesundheitsdienstleister vorstellen. Ohne Datenaustausch ist die Gesundheitsinformation über diese Patienten damit bei allen kontaktierten Dienstleistern unvollständig [10].

Weitere Datenquellen können diagnosespezifische Informationen enthalten und wertvolle Beiträge zur Analyse von Krankheiten, Risikofaktoren oder therapeutischen Strategien leisten. So enthalten z.B. Tumorregister über die Tumordiagnose hinaus Informationen über das Stadium, genetische Marker, oder Rezeptorverhalten und erlauben - verbunden mit Langzeitdaten - Rückschlüsse auf den Erfolg sog. personalisierter Medizin.
Idealerweise würde man deshalb mehrere Datenquellen auf Patientenebene verbinden („linking“), ohne dabei Datenschutzregeln zu verletzen. Verschiedene Anbieter arbeiten derzeit an Lösungen, die es erlauben, Daten aus unterschiedlichen Quellen ohne Re-Identifizierung ein- und demselben Patienten zuzuordnen („tokenizing“).

EM Akzeptanz internationaler Daten

Müssen Daten immer aus dem Land kommen, für das die Ergebnisse verwendet werden sollen? Wenn es um die Platzierung einer klinischen Prüfung geht, die RWD also zur Zentrumssuche in einem bestimmten Land verwendet werden, dann sind Daten aus einem anderen Land natürlich wenig hilfreich. Auch Zulassungsbehörden verlangen üblicherweise - zumindest z.T. - Daten aus dem Land ihres Zuständigkeitsbereichs. Anders sieht es aus, wenn es um die Erforschung medizinischer Zusammenhänge, Therapien oder Nebenwirkungen geht: Soweit hauptsächlich die Zusammensetzung der Bevölkerung nach Demografie, ethnischer Zugehörigkeit, Lebens- und Ernährungsweise für die jeweilige wissenschaftliche Fragestellung wichtig ist, sind Daten aus großen heterogenen Populationen, z.B. den USA, vollkommen ausreichend, da alle Charakteristiken enthalten sind. So können in den USA entwickelte kardiovaskuläre Risiko-Scores auch auf die deutsche Bevölkerung angewendet werden, möglicherweise sogar besser [11]. Anders sieht es aus, wenn landesspezifische Interventionen wie Verschreibungspraktiken oder Restriktionen des Gesundheitssystems untersucht werden oder bei den Definitionen eine Rolle spielen. Dann sollten die Daten aus demjenigen Land kommen, auf das die Ergebnisse angewendet werden sollen.

Wie können RWD klinische Prüfungen unterstützen?

Im Verlauf der letzten Dekade hat sich die Effizienz der Arzneimittelentwicklung kontinuierlich verschlechtert. Eine zunehmende Anzahl klinischer Prüfungen verfehlt ihren primären Endpunkt. Die Erfolgsquote in der Entwicklung von Phase 1 bis zur Zulassung ist mit ca. 10% immer noch enttäuschend niedrig [12]. Die Komplexität von Prüfplänen, insbesondere die Anzahl an Auswahlkriterien, nimmt immer noch zu und führt zu erheblichen Rekrutierungsproblemen [13]. Weniger als 30% der Prüfpläne kommen ohne Amendment aus, 70% müssen z.T. mehrmals abgeändert werden, was zu komplexen und teuren Verzögerungen führen kann.

Bei der Erstellung eines Prüfplans, z.B. bei der Auflistung der Auswahlkriterien oder bei der Definition von Labor-Grenzwerten, verlassen sich die meisten Autoren auf eigene Erfahrungen, Literatur oder Expertenmeinungen. Selten werden Datenquellen aus der tatsächlichen medizinischen Praxis dahingehend untersucht, ob die Ein- und Ausschlusskriterien ein Patientengut definieren, das in der Wirklichkeit überhaupt existiert (auch wenn es in der Theorie wissenschaftlich gut definiert ist). Viele zeitraubende und kostspielige Protokoll-Amendments könnten vermieden werden, wenn bei der Prüfplanerstellung eine objektivere und datenbasierte Strategie gewählt werden würde [14].

In welchen Phasen der Studienvorbereitung und -planung können RWD also hilfreich sein?

Studiendesign

Autoren von Prüfplänen benötigen verlässliche Informationen über Begleiterkrankungen, Begleittherapie und mögliche Risikofaktoren, um ein realitätsnahes Studienprotokoll zu erstellen, dass den Verhältnissen nahekommt, die Patienten in der normalen medizinischen Praxis erleben.

RWD erlauben die Erstellung realistischer Ein -und Ausschlusskriterien, damit die in der Studie untersuchten Patienten der Realität so nah wie möglich kommt und die Studie ohne größere Rekrutierungsprobleme durchführbar ist.

Dies wird anhand eines sehr einfachen Beispiels ersichtlich: Bekanntlich sind ältere Patienten in klinischen Prüfungen oft unterrepräsentiert [15]. Obere Altersgrenzen finden sich in klinischen Prüfungen normalerweise aus Sicherheitsgründen, aber so verschiebt sich die Altersverteilung der Studienpopulation zu den jüngeren Patienten. Ein Blick auf RWD und die entsprechenden demografischen Informationen über die in der klinischen Prüfung zu untersuchende Grunderkrankung helfen bei der Quantifizierung einer möglichen Diskrepanz in der Altersverteilung zwischen Patienten- und Studienpopulation. Somit kann eine realistischere Altersgrenze definiert werden, als Kompromiss zwischen Sicherheit und Repräsentativität (Abb. 1).

Rekrutierbarkeit (Feasibility)

Obwohl mit zunehmendem Entwicklungsstatus eines neuen Arzneimittels die Studienrisiken abnehmen, werden Ein- und Ausschlusskriterien sehr oft von Phase2 routinemäßig auf Phase3 übertragen. Zusammen mit wissenschaftlich sehr sinnvollen, aber manchmal wenig auf der Realität basierenden Expertenmeinungen entsteht dann eine Liste aus Auswahlkriterien, die eine Rekrutierung der Prüfung deutlich erschwert. Hier ist eine Simulation des Rekrutierungsprozesses mithilfe von RWD vor Studienbeginn sehr hilfreich, um potenzielle Rekrutierungshindernisse vorab zu erkennen und ggf. die Notwendigkeit eines späteren Amendments zu verhindern (Abb. 2).

Zentrumsauswahl

Natürlich will jeder Sponsor die klinische Prüfung nur in solchen Zentren platzieren, an denen tatsächlich Patienten verfügbar sind. ICH-GCP schreibt vor, dass ein Prüfzentrum vor Annahme der Studie die Verfügbarkeit von Patienten nachweisen muss [16]. Klassischerweise geschieht dies durch Ausfüllen zeitraubender Fragebögen. Ein RWD-System, welches es dem Sponsor erlaubt, die Gesamtanzahl an Patienten pro Zentrum darzustellen, kann diesen Prozess erleichtern. Im Idealfall ist dieses mit einem Kommunikations-Tool mit dem Zentrum verbunden, sodass im selben Schritt weitere operative Themen bearbeitet werden können.

Patientenscreening

Datenschutzregelungen verlangen, dass elektronische Gesundheitsdaten nur in anonymisierter Form weitergeleitet werden, wenn es sich nicht direkt um die Behandlung des Patienten handelt. Dies schließt zunächst einmal eine Rückidentifizierung von potenziell für eine Studie geeigneten Patienten aus. Allerdings kann am Zentrum (innerhalb der „Firewall“) ein entsprechender Identifizierungsschlüssel bewahrt werden. Dies erlaubt nach einem entsprechenden studienspezifischen Ethikvotum (das ohnehin die geplante studienspezifische Rekrutierungsmethodik beschreiben muss) am Zentrum die Identifizierung passender Patienten und die Kontaktierung zu einem eventuellen Pre-Screening.

Randomisierte klinische Prüfungen im Vergleich zu Real-World-Evidenz-Studien

Über viele Jahren stellten RCTs den Goldstandard zum Erkenntnisgewinn in der medizinischen Forschung und Arzneimittelentwicklung dar [17].

Erst seit der Digitalisierung des Gesundheitswesens bilden elektronische Gesundheitsdaten (RWD) eine vernünftige Alternative zu klinischen Prüfungen.

RCTs werden üblicherweise in einem sehr experimentellen und wenig realistischen Setting durchgeführt. Niemals werden Patienten in der routinemäßigen klinischen Praxis so sorgfältig ausgewählt, so engmaschig überwacht und so fürsorglich betreut wie in einer klinischen Prüfung. In einigen Therapiegebieten, z.B. in der Onkologie, bilden klinische Prüfungen eine ernsthafte Therapiealternative und ermöglichen somit den Zugang zu neu entwickelten Medikamenten. Ein großer Behandlungsdruck bringt allerdings eine beträchtliche Erwartungshaltung mit sich. Das kann zu einer gewissen Finseitigkeit hinsichtlich des Nutzen-Risikoprofils während des Aufklärungsgesprächs und zu einem signifikanten Placeboeffekt während der Studie führen [18].

Der Einschluss von Patienten mit einer höheren Wahrscheinlichkeit der Wirksamkeit und der Ausschluss von Patienten mit Risikofaktoren reduzieren die Repräsentativität der Studienergebnisse erheblich. Aus RCT-Publikationen, die den vollständigen Screeningprozess offenlegen [19, 20], kann entnommen werden, dass Ein- und Ausschlusskriterien die Population mit. der eigentlichen Erkrankung (Indikation) auf eine kleine Gruppe mit speziellen Charakteristika reduzieren, die oft weniger als 10% der Patienten repräsentieren und dabei die Co-Morbidität oder die demografischen Charakteristika erheblich verzerren können [21]. Dies verletzt nicht nur das grundlegende Prinzip des „random sampling“, sondern stellt die Generalisierbarkeit der Ergebnisse auf die Grundpopulation (externe Validität) infrage [22]. Obwohl die Existenz dieses „efficacy effectiveness gap“ [23] selbst von Zulassungsbehörden akzeptiert wird [24], werden von diesen derzeit nur RCTs als alleinige Quelle verlässlichen Erkenntnisgewinns an- erkannt. Dies gilt, zumindest im deutschen System, gleichermaßen für HTA- und Erstattungsfragen, da laut dem Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen „andere Studientypen als RCTs ... in der Regel für einen Kausalitätsnachweis nicht geeignet“ sind [25].
Dieses Misstrauen gründet sich auf verschiedene als Schwächen wahrgenommene methodische Eigenheiten der RWD-Studien. Die wichtigsten Kritikpunkte betreffen die Vollständigkeit und Qualität der Daten, die ja ursprünglich nicht für eine wissenschaftliche Auswertung gesammelt wurden. Bei vergleichenden RWD-Studien fehlt darüber hinaus eine Randomisierung, was zu einem Ungleichgewicht der zu vergleichenden Gruppen führen kann und mit entsprechenden statistischen Methoden ausgeglichen werden muss.

Tabelle2 fasst die wesentlichsten Unterschiede zwischen RCTs und RWD zusammen.

In einer RWD-Studie kann eine Kohorte wesentlich mehr Informationen enthalten als in einer klinischen Prüfung, denn das experimentelle Vorgehen in einer RCT ist üblicherweise entsprechend dem Prüfplan zeitlich limitiert, und die Patientenanzahl entspricht der zur Beantwortung der primären Hypothese minimal notwendigen Fallzahl. Dagegen können elektronische Gesundheitsdaten eine weitaus längere und umfassendere Krankengeschichte enthalten. Deshalb steht in RWD-Studien ein erheblich größerer Informationsgehalt zum Erkenntnisgewinn zur Verfügung als in klinischen Prüfungen.

Klinische Prüfungen verwerten somit nur einen Bruchteil der gesamten verfügbaren Information über eine Erkrankung. Zur fehlenden Repräsentativität der RCT trägt bei, dass nur ein kleiner Teil der von einer bestimmten Erkrankung betroffenen Patienten die Möglichkeit hat, an einer klinischen Prüfung teilzunehmen. In der Onkologie wird dieser Teil auf ca.2% geschätzt; dennoch werden die Erkenntnisse solcher hochgradig selektierten Patientengruppen für Therapie- oder Zulassungsentscheidungen für die gesamte Indikation verwendet [26]. Während die Daten in klinischen Prüfungen einer intensiven Quelldatenkontrolle unterliegen, verwenden RWD-Studien die Daten so wie sie vorliegen. Insofern unterliegen RWD-Studien verschiedensten Einflüssen, z.B. der Demografie in den Behandlungszentren mit bevölkerungstypischen Begleiterkrankungen, der Verschreibungs- und Dokumentationspraxis. Dies muss bei der Auswertung beachtet werden. Unbekannte Störgrößen lassen sich allerdings nicht durch Adjustierung minimieren,

 

Geeignete Analysemethoden: von RWD zu RWE

Aus den oben genannten Gründen erfordern RWD-Studien sorgfältige Analysemethoden, um den hohen Anforderungen an wissenschaftlicher Sorgfalt gerecht zu werden, die von RCTs als Goldstandard in den letzten 20 Jahren gesetzt wurden. Nur durch entsprechende qualitätssichernde Maßnahmen und angepasste Analysemethoden kann aus Real-World-Daten (RWD) Real World Evidence (RWE) werden.
Aus der Sicht des Goldstandards RCT haben RWD folgende „Schwächen“, die im Rahmen des Auswertungsprozesses berücksichtigt werden müssen:

Unvollständige Dokumentation

Insbesondere in vergleichenden RWD-Studien kann eine erhebliche Schieflage entstehen, wenn die Dokumentationsdichte in den zu vergleichenden Kohorten unterschiedlich ist. Dies kann der Fall sein, wenn eine orale Therapie mit einer intravenösen Therapie verglichen wird, was in der letzteren Gruppe zu vermehrten Arztbesuchen und dann natürlich zu einer häufigeren Dokumentation potenzieller Beschwerden (z.B. Nebenwirkungen) führen kann. Deshalb muss die Dokumentationsdichte der zu vergleichenden Kohorten gemessen und ggf. berücksichtigt werden.

Unklare Compliance

Die Dokumentation einer Verordnung in der elektronischen Krankenakte stellt nicht automatisch sicher, dass die entsprechende Medikation vom Patienten auch eingenommen wurde. Es schließt auch nicht aus, dass ggf. von einem anderen Leistungsanbieter ein anderes Medikament verschrieben oder die Medikation gewechselt wurde. Oft wird deshalb in den Definitionen der RWD-Kohorte verlangt, dass die entsprechende Medikation mehrfach innerhalb eines gewissen Zeitraums in der Krankenakte zu finden ist.

Falsche Werte

Insbesondere bei Laborwerten können Kommafehler oder Verwechslungen von Einheiten Extremwerte zur Folge haben, die bei der Auswertung die Mittelwerte stark verändern können. Patienten mit medizinisch unsinnigen Extremwerten werden deshalb oft von der Analyse ausgeschlossen.

Störgrößen

Ohne Randomisierung finden sich in den zu vergleichenden Gruppen Charakteristika, die etwa von der Verschreibungspraxis des Arztes oder den Grunderkrankungen der Patienten abhängen. Eine beliebte Methode ist der Ausgleich der Kohorten durch Stratifizierung oder Propensity Scoring unter Berücksichtigung aller möglichen Unterschiede (Alter, Begleiterkrankungen, Laborwerte etc.).

Die Rekrutierung und Durchführung einer RCT kann - je nach Therapiegebiet und Beobachtungsdauer - viele Monate bis mehrere Jahre dauern [27], während RWDs für retrospektive Studien unmittelbar verfügbar sind. Im Vergleich zu RCTs können RWD-Studien deshalb schnell, einfach und kosteneffizient durchgeführt werden. Dies kann dazu verführen, verschiedene Auswertungsstrategien zu entwickeln, die Analysen durchzuführen und dann nur dasjenige Ergebnis weiter zu verwerten, das den Erwartungen entspricht. Ein solches Verhalten wird üblicherweise als „data dredging“, „fishing expeditions‘, „p-hacking“ oder „selective publi- shing“ bezeichnet.

Um solche eindeutig abzulehnenden Praktiken zu verhindern, ist es notwendig, wie in klinischen Prüfungen proaktiv einen Prüfplan mit allen Definitionen und Analysen zu beschreiben, zu dokumentieren und sich dann daran zu halten. Interne Prozesse (SOP) und verwendete Analyseplattformen müssen die Dokumentation der einzelnen Schritte (Audit Trail) entsprechend unterstützen. Verschiedene Fachgesellschaften entwickeln derzeit entsprechende Leitlinien. Abbildung3 zeigt ein Beispiel der International Society of Pharmacoeconomics and Outcome Research (ISPOR) und International Society for Pharmacoepidemiology (ISPE) [28].

Einerseits bieten viele Datenquellen unvollständige Daten minderer Qualität, die zusammen mit naiv simplifizierter Auswertung zu gravierenden Fehlschlüssen führen können [29]. Andererseits können nicht alle hochkomplexen Auswertemethoden, die die biostatistische Wissenschaft anbietet und die oft für RCTs verfeinert wurden, auf RWD angewandt werden. Viele Methoden können durch Datenmanipulation ihrerseits die Ausgewogenheit gefährden [30] oder die Kohorten in ähnlicher Weise, wie es in klinischen Prüfungen zu sehen ist, reduzieren und damit unrepräsentativ machen. Die medizinische Wissenschaft wird eine Balance zwischen leichtfertiger Akzeptanz von RWD-Studien minderer Qualität und übertrieben hohen Standards, die dann wenig mit der Abbildung der medizinischen Realität zu tun haben, finden müssen [31,32].

Mögliche Anwendungsbereiche für RWD

Aus den oben genannten Gründen haben RWD-Studien noch nicht den Grad der Glaubwürdigkeit erreicht, den man von RCTs mit den entsprechenden multiplen Vorschriften und Richtlinien gewöhnt ist. Deshalb wird die Durchsetzung von RWE-Analysen noch eine längere Zeit mit großen Widerständen kämpfen müssen. Die Verwendung von RWD im Zulassungsbereich beschränkt sich derzeit noch auf Einzelfälle im Bereich der Medizinprodukte und seltene Indikationserweiterungen in der Onkologie [33, 34]. RWD-Studien werden hauptsächlich für hypothesengenerierende Projekte und zur Identifizierung möglicher Sicherheitssignale in der Arzneimitteltherapiesicherheit eingesetzt.

Auch wenn spezifische Richtlinien zur Verwendung von RWD/RWE-Studien im Zulassungsprozess noch fehlen, so gibt es bereits jetzt für die pharmazeutische Industrie und für CROs eine Fülle an Anwendungsbereichen für RWD, insbesondere dann, wenn die Durchführung einer randomisierten klinischen Prüfung zu kostspielig oder zu zeitaufwendig wäre (Tab. 3).

Je stärker die Digitalisierung des Gesundheitswesens voranschreitet und je verfügbarer RWD werden, umso dringlicher stellt sich die Frage, inwieweit RWD/RWE in Konkurrenz zu RCT treten werden.

Auch wenn man RCTs als zeitaufwendig, kostspielig und in ihren Ergebnissen als unrepräsentativ betrachtet, so kann man, insbesondere in der Arzneimittelentwicklung vor der Zulassung, nicht auf den RCT-typischen wissenschaftlich korrekten Nachweis der Wirksamkeit und Sicherheit verzichten.

Allerdings werden RWE-Studien zunehmend in Phase 4 eingesetzt, um die Langzeitsicherheit oder neue Indikationen zu untersuchen, oder um einen zusätzlichen Nutzen eines Arzneimittels, der über die ursprüngliche Wirkung hinausgeht, nachzuweisen.

Verschiedene Publikationen haben bereits gezeigt, dass RWD/RWE-Studien klassische randomisierte Outcome-Studien reproduzieren und damit ersetzen können [35-38]. Als RWE durchgeführt, stünden die Erkenntnisse solcher Langzeitstudien wesentlich früher zur Verfügung. Für die betroffenen Patienten kann das eine frühere Behandlung nach neuesten Erkenntnissen und für die pharmazeutische Industrie eine erhebliche Kostenersparnis bedeuten. Idealerweise bietet eine sich gegenseitig ergänzende Kombination aus RCT mit deren wissenschaftlicher Korrektheit und realitätsnahen RWD/RWE ein holistisches Gesamtbild über den Wissensstand einer Erkrankung oder einer Therapie ab.

Wissenschaftliche Verwendung von Big Data in der medizinischen Forschung: allgemeine Überlegungen

Tiefergehende rechtliche oder ethische Überlegungen über die Verwendung von Big Data im Gesundheitswesen würden den Rahmen dieses wissenschaftlich orientierten Beitrags sprengen. Da jedoch Diskussionen über ein „Eigentumsrecht“ der Patienten an Gesundheitsdaten im Gange sind [39, 40], sei die Thematik hier kurz angesprochen.

Die Frage kann aus einer ethischen oder einer gesetzlichen Definition des Begriffs „Eigentum“ angegangen werden. Rechtliche Aspekte, wie sie sich in Bezug auf Datenschutz, Datenweiterleitung oder den Analyseprozess ergeben, müssen bei der Verwendung von Patientendaten für Forschungszwecke selbstverständlich berücksichtigt werden. Die Einhaltung aller bestehenden Vorschriften hinsichtlich des Datenschutzes ist natürlich ein Muss. Wie sieht es jedoch mit moralischen Überlegungen aus, die ja nicht nur individuelle Meinungen repräsentieren, sondern oft auch von Interessensgruppen in die Gesetzgebung eingebracht werden?

Sehen wir uns hierzu RWD als Quelle des Erkenntnisgewinns und medizinischer Erfahrungen an und stellen uns ein Arzt vor, der einen Patienten vor sich hat. Er kann bei einer Beratung eines Patienten auf verschiedene Quellen der Erkenntnis zurückgreifen, um eine optimale Therapieentscheidung zu treffen: Erinnerungen an das Medizinstudium, kürzlich gelesene Literatur oder eigene Erfahrungen mit Patienten mit ähnlicher Symptomkonstellation. Er wird möglicherweise auch Kollegen nach deren Erfahrungen fragen. Der mit Diuretika behandelte Patient des Arztes leidet an Diabetes Mellitus Typ 2 und Hypokaliämie. Unter der Annahme, dass ein Arzt etwa 50 Patienten am Tag behandelt [41], einer Diabetesprävalenz von ca. 10% im Krankengut und einer Gedächtnisleistung von etwa 10 medizinisch relevanten Fakten pro Patient, kann ein Arzt während eines Jahres auf etwa 10 000 Erfahrungswerte (klinische Fakten) zurückgreifen, die bei einer weiteren Therapieentscheidung helfen könnten. Dem stehen in einer gut dokumentierten kommerziell verfügbaren Sammlung elektronischer Krankenakten 270000 hypokaliämische Patienten mit Diabetes Typ 2 unter Diuretika gegenüber, die über 1,2 Mrd. medizinische Fakten über mehrere Jahre enthalten [42]. Niemand will die Gedächtnisleistung oder den Erfahrungsschatz. der Ärzte in Zweifel ziehen, aber die Erkenntnisse, die aus RWD zur wissenschaftlichen Auswertung oder individuellen Therapieentscheidung herangezogen werden können, sind enorm: Es handelt sich um einen riesigen kollektiven Erfahrungsschatz der Ärzteschaft! Ethische und wissenschaftlichen Aspekte fügen nun eine zusätzliche Nuance hinzu. Ein Blick auf den Prozess von der Datenerfassung bis zur Veröffentlichung einer wissenschaftlichen Arbeit zeigt, dass jeder Schritt den wissenschaftlichen Wert der Daten erhöht (Abb. 4):
  • Patientendaten werden vom Patienten selbst, vom Labor oder von anderen Untersuchern dokumentiert. Die Daten erfahren jedoch erst einen Wert durch die medizinische Interpretation des Arztes.
  • Gesundheitsdaten verschiedenster Art und aus verschiedensten Quellen werden durch Netzwerke zusammengeführt (selbstverständlich anonymisiert) und erhalten dadurch eine epidemiologisch-wissenschaftliche Wertsteigerung.

  • Wissenschaftler analysieren die Daten, interpretieren sie und veröffentlichen die Ergebnisse.

  • Mediziner informieren sich über die Erkenntnisse und wenden sie in der Praxis an.

  • Patienten profitieren davon.

Jeder Schritt in diesem Kreis trägt also zum medizinischen Fortschritt bei, die Wertsteigerung kommt letztendlich wieder den Patienten zugute. Alle Patienten, die in der Zukunft an einer bestimmten Erkrankung leiden, sollten von den Daten jener Patienten profitieren können, die heute von der gleichen Erkrankung betroffen sind.
   
 

Fallzahlplanung – weshalb ein adäquater Stichprobenumfang für klinische Studien unumgänglich ist

Sei es bei einer experimentellen klinischen Studie, in der epidemiologischen Forschung oder der Grundlagenforschung: Um Aussagen und Schlussfolgerungen zu treffen, werden zunächst unabhängig von der Fragestellung Daten erhoben. Dabei ist eine Vollerhebung, d. h. ein Einschluss aller theoretisch möglichen Beobachtungen, nur in den seltensten Fällen sinnvoll. Ökonomische, zeitliche und ethische Aspekte sind wichtige Gründe, lediglich eine repräsentative Stichprobe zu ziehen. Denn je mehr Beobachtungen, umso mehr Ressourcen, umso höherer finanzieller Aufwand, und umso länger dauert die Erhebungsphase. Werden allerdings zu wenige Beobachtungen in die Analysen eingeschlossen, so können tatsächlich vorhandene Effekte nicht nachgewiesen werden. Statistische Tests mit den Daten einer zu kleinen Stichprobe ergeben keine signifikanten Ergebnisse, obgleich die Effekte womöglich tatsächlich vorhanden sind. Die Wahrscheinlichkeit für einen derartigen Worst Case kann bei professioneller Planung des Stichprobenumfangs in Zusammenarbeit mit Medizinern in engen Grenzen gehalten werden.

Wie groß muss die Stichprobe sein, um valide Ergebnisse zu erhalten? Zur Beantwortung dieser Frage wird vorab eine differenzierte Fallzahlplanung durchgeführt.

Der benötigte Stichprobenumfang wird dabei letztlich von 3 Faktoren bestimmt:

1.    Gewählte Fehlerwahrscheinlichkeiten

Wird für die Analyse eine Stichprobe verwendet, werden die gewonnenen Aussagen auf die Grundgesamtheit übertragen (induktive Statistik). Mit dieser Art des Vorgehens müssen zwei Arten von Falschaussagen in Kauf genommen werden:  Der Fehler erster Art tritt ein, wenn Hypothesen oder Aussagen in der Stichprobe nachweisbar sind, obwohl diese für die Grundgesamtheit nicht gelten. Ein Fehler 2. Art entsteht, falls die Hypothesen oder Aussagen in der Stichprobe abgelehnt werden, in der Grundgesamtheit allerdings zutreffen.
Ziel jeder Erhebung ist es, beide Fehler so gering wie möglich zu halten. Je kleiner die Fehler erster und zweiter Art festgesetzt werden, umso höher ist der erforderliche Stichprobenumfang.

2.    Effektgröße als weitere Determinanten des erforderlichen Stichprobenumfangs

Die Effektgröße stellt eine weitere wichtige Komponente für den erforderlichen Stichprobenumfang dar. Dabei ist in der Planungsphase der relevante Mindesteffekt von Interesse. Der relevante Mindesteffekt ist immer auf den primären Endpunkt bezogen.  Die Zusammensetzung der Effektgröße variiert somit je nach Fragestellung. Im einfachen zwei-Gruppen Vergleich eines stetigen Merkmals setzt sich die Effektgröße aus der Differenz der Mittelwerte und der zugehörigen Streuung zusammen. Bei Survival-Analysen spielen dagegen Hazardraten für die Berechnung der Effektgrößen eine wichtige Rolle. Die Festlegung erfolgt anhand von anwendungsbezogenen Vorüberlegungen. Die Informationen dafür können aus eigenen Erfahrungen, Publikationen oder Pilotstudien stammen.
Je geringer der nachzuweisende Mindesteffekt ist, umso höher muss der dafür notwendige Stichprobenumfang festgelegt werden.

3.    Effektive Fallzahl

Die Fallzahlplanung gibt an, wie viele Beobachtungen mindestens für die Auswertung zur Verfügung stehen müssen. Aufgrund von Dropouts entspricht dies nicht der Anzahl der zu rekrutierenden Beobachtungen. Dropouts sind Personen, die die Datenerhebungsphase nicht wie vorgesehen zu Ende bringen. Bei Befragungen sind dies Befragte, die den Fragebogen nicht vollständig ausfüllen bzw. frühzeitig abbrechen. In klinischen Studien spricht man von Studienabbrechern, falls Studienteilnehmer an der Studie nicht bis zum Studienende nach Protokoll teilnehmen. Der Anteil dieser Dropouts muss vor Beginn der Studie abgeschätzt werden und im Rahmen der Fallzahlplanung berücksichtigt werden. Müssen beispielsweise 500 Beobachtungen für die Auswertung zur Verfügung stehen bei einer Dropoutrate von 20 %, so müssen 500 × 1,2 = 600 Beobachtungen in die Studie eingeschlossen werden.
Je höher die Dropoutrate, umso höher ist die Anzahl zu rekrutierender Beobachtungen.

Durchführung von Fallzahlberechnungen
Fallzahlberechnungen werden in enger Zusammenarbeit von Statistikern und Anwendern durchgeführt. In den seltensten Fällen kann der nachzuweisende relevante Unterschied in eine Zahl gefasst werden. Mit Sensitivitätsanalysen werden oftmals relevante Bereiche näher untersucht und infrage kommende Werte umgrenzt. Auch die Machbarkeit und faktisch leistbare Rekrutierungsrate in Bezug auf den zeitlichen Rahmen müssen dabei berücksichtigt werden. Erfahrende und professionelle Statistiker erstellen in engem Austausch mit den Anwendern dokumentierte Fallzahlberechnungen. Software zur Fallzahlplanung kann dabei einen kleinen Teil der erforderlichen Abwägungen übernehmen.

Zusammenfassung
Fallzahlplanung im Rahmen einer statistischen Beratung vor einer Datenerhebung stellt sicher, dass relevante Mindesteffekte nachgewiesen werden können, sofern Sie tatsächlich vorhanden sind. Gleichzeitig wird der Stichprobenumfang so niedrig gehalten, dass Ressourcen nicht übermäßig gebunden werden und valide Ergebnisse zeitnah vorliegen können. Auch ethische Aspekte in klinischen Studien werden berücksichtigt. Fallzahlplanungen erfolgen maßgeschneidert in enger Zusammenarbeit von Statistikern und Anwendern.

 


Autor:
Robert Grünwald
Inhaber

Novustat.com
Statistik Service von Experten.
——————————————————
Mail: info@novustat.com
Phone: +49 211 99346512

Juni 2019

Tag der Klinischen Forschung 2019


Zum vierzehnten Mal in Folge fand am 15. und 16. Mai 2019 in Köln der „Tag der Klinischen Forschung“ statt. Die Jahrestagung für Mitarbeiter in Clinical Research war auch dieses Jahr wieder gespickt mit Themen, welche die Klinische Forschungslandschaft derzeit umtreiben.

Als erste Vortragende startete Dr. Aylin Mende aus dem Bundesinstitut für Arzneimittel und Medizinprodukte in Bonn, welche den Teilnehmern einen Überblick über die Themen Brexit, Arbeitssituation der europäischen Arzneimittelbehörde (EMA) nach deren Umzug sowie aktueller Stand zur EU-Datenbank gab.

Die Arbeitsauslastung durch eingereichte Änderungsanzeigen ist im BfArM seit April deutlich zurückgegangen. Dennoch gibt es in Sachen Brexit-Vor- und Nachbereitung noch genug zu tun, denn allein 1.500 klinische Prüfungen sind davon betroffen. Auch für Inspektionen bleibt der Austritt Großbritanniens aus der EU ein großes Thema. Frau Mende riet allen Teilnehmern, sich in den Firmen nochmals genau anzusehen, ob die Regelungen, die auf dem Papier im Dossier getroffen wurden auch bei Verträgen und Prozessen in der Praxis gelebt werden, um keine bösen Überraschungen zu erleben. Die Akademia ist ebenfalls vom Brexit mehr betroffen als zu Anfang gedacht, da durch den Austritt Großbritanniens auch EU-Fördergelder für akademische Studien nicht mehr gezahlt werden.

Was den EMA-Umzug betrifft, so ist dieser fürs Erste abgeschlossen und die Mitarbeiter haben ihre Arbeit in der Behörde wieder aufgenommen. Gemäß Business Continuity Plan werden die Aktivitäten jedoch derzeit in drei Prioritätsebenen unterteilt bleiben und mit unterschiedlicher Gewichtung weitergeführt bzw. ruhen gelassen. Generell rechnet Frau Mende damit, dass noch weitere Mitarbeiter die EMA in den kommenden Monaten verlassen, so dass die Arbeitssituation für die Verbleibenden und für die Firmen damit nicht einfacher werden wird.
Auch zum EU-Portal gab es keine erfreulichen Neuigkeiten. Die Entwicklung der Datenbank und des Portals sind derzeit auf Eis gelegt; das Portal ist nicht funktionsfähig. Frau Mende vermutet, dass die EU-Verordnung 536/2014 damit ab Mitte 2020 auch nicht zur Anwendung kommt.

Positive Nachrichten gibt es unterdes über das Pilotverfahren, was Bundesoberbehörde und Ethikkommissionen gemeinsam unterhalten. Dies wird von den Firmen sehr gut angenommen und auch die Zusammenarbeit unter den Beteiligten funktioniert prima. Künftig wird auch das Paul-Ehrlich-Institut (PEI) mit in das Pilotprojekt einsteigen.

Regulatorische Neuerungen wusste auch Torsten Ruppert vom Verband Forschender Arzneimittelhersteller (vfa) zu berichten. Er informierte die Teilnehmer im Detail über den Ablauf des neuen Verfahrens sowie die Fristen, welche das neue Strahlenschutzgesetz (in Kraft seit 31. Dezember 2018) jetzt für die Bearbeitung von Genehmigungsanträgen vorsieht.
Zusammengefasst lässt sich sagen, die Fristen wurden mit der Neuregelung auf das europäische Vergleichsniveau angepasst und stark verkürzt. Unklar ist jedoch, was für Auswirkungen mögliche Fristverlängerungen mit sich bringen, die das Bundesamt für Strahlenschutz (BfS) unter bestimmten Bedingungen anwenden kann. Hier wird die Zukunft zeigen, ob die getroffenen Regelungen praktikabel sind. 
Einen Kritikpunkt am neuen Gesetz äußerte Herr Ruppert aber dann doch. Entscheidende Punkte der neuen Regelungsansätze sind nicht zielführend und passen nicht in das System einer klinischen Prüfung nach AMG und MPG. Zahlreiche Anforderungen, welche an einen Strahlenschutzverantwortlichen gestellt werden sind ein recht bürokratisches Konstrukt, welches nur schwer in den Ablauf einer klinischen Prüfung passt. Im Großen und Ganzen zieht der vfa aber ein positives Fazit. Die Formulare sind verständlicher geworden und auch die Seiten des BfS helfen den Antragstellern mit vielen Checklisten und Tipps weiter.

Dr. Guido Grass von der Ethikkommission der Medizinischen Fakultät zu Köln und Vorstand des Arbeitskreises Medizinischer Ethik-Kommissionen in Deutschland reihte sich als dritter Referent im Bunde mit regulatorischen Fakten ein. Er gab einen Überblick darüber, welche Verpflichtungen die Ethikkommissionen im Rahmen des Datenschutzes in klinischen Prüfungen sehen und wofür sie im Unterschied zur Datenschutzbehörde zuständig sind. Klar wurde aus seinen Ausführungen, dass die kursorische Datenschutzprüfung auch weiterhin Aufgabe der Ethikkommission bleiben wird. Auch die oft kritische Datenübermittlung in Drittländer, die Einhaltung des Datenschutzniveaus Europas und das Thema Datenschutz bei weiter zunehmender Digitalisierung wurden in diesem Zusammenhang thematisiert.

Einen weiteren Diskussionspart nahm die Patientenaufklärung, Patienteninformation und Einwillligungserklärung sowie der Broad Consent (z.B. bei der Sammlung von Biomaterial oder Pharmacogenomics-Daten) ein. Hier vertritt Dr. Grass einen ganz klaren Standpunkt und stellt das Wohl des Patienten – sicher zu recht – in den Vordergrund.

Den Abschluss der Referentenriege am ersten Tag machte Ute Lichte, Apothekerin und Consultant bei JOBELIUS - SOLUTIONS IN HEALTH CARE. Ihr Thema waren die epidemiologischen Studien und Register, welche mit dem Gesetz für mehr Sicherheit in der Arzneimittelversorgung (GSAV) künftig mehr Bedeutung erhalten sollen. Der Gemeinsame Bundesausschuss (G-BA) fordert darin Registerdaten von bedingt zugelassen Arzneimitteln bzw. Produkten, die einen Orphan Drug-Status innehaben. D.h. zusätzlich zu den Datenforderungen der Zulassungsbehörden, müssen weitere Daten erhoben werden, um einen Nutzen eines Arzneimittels nachzuweisen. Für die Industrie stellt diese sogenannte „anwendungsbegleitende Datenerhebung“ eine große Herausforderung dar. Es wurde im Plenum diskutiert, wie und ob das in der Praxis überhaupt umgesetzt werden kann.

Mit diesen spannenden Beiträgen und Diskussionen ging der fachliche Part des ersten Tages zu Ende und die Teilnehmer und Referenten in den gemütlichen Teil über, um sich bei einem Abendessen weiter auszutauschen.

Der zweite Tag begann dann mit einem fast poetischen Titel: „Am Anfang ist das Studiendesign“. Dr. Matthias Klüglich von Boehringer Ingelheim stellte sich und dem Auditorium die Frage, ob neue Studienformen automatisch Garanten für erfolgreiche klinische Prüfungen sind. 
Nachdem diverse Studiendesigns mit Vor- und Nachteilen diskutiert wurden, war klar, dass die Wahl des Designs ein ausschlaggebender Faktor für den Erfolg einer klinischen Prüfung sein kann. Neben klassischen Designs, wie parallel, factorial oder crossover, sind auch single oder multiple rising dose-Modelle inzwischen weit verbreitet in der Studienwelt. Aber auch innovative Designs, wie seamless, die Elemente verschiedener Dosisentwicklungsphasen vereinen, und komplexe Designs, wie basket, umbrella oder platform, haben ihre Daseinsberechtigung. Matthias Klüglich warnte allerdings davor, sich zu viel „experimentelle Energie“ zuzumuten, denn diese Studiendesigns werden sowohl von den Behörden als auch den Ethikkommissionen als kritisch angesehen. Insbesondere bei der Überwachung der Studie, der praktischen Organisation durch den Sponsor, aber auch bei finanziellen Aspekten sowie der statistischen Auswertung und Dateninterpretation gilt es, Vorsicht walten zulassen und sich lieber im Vorfeld viele Gedanken dazu zu machen.
Als Exot, wenn auch schon im Einsatz, gelten bisher immer noch die sogenannten Big Data–Modelle, in welchen viele Studiendaten zur Auswertung herangezogen werden. Noch exotischer sind nur noch Studien, in welchen künstliche Intelligenz eine Rolle spielt. Aber auch diese gibt es bereits in kleinen Ansätzen, z.B. in der Radiologie, wo CTs mit PC-Programmen ausgewertet werden oder aber in der Psychiatrie zur Mimik-Erkennung. In der gängigen KliFo-Praxis werden wir auf den Einsatz solcher „AI-Studien“ wohl aber noch ein wenig warten müssen, da das Risiko für den Patienten noch als zu hoch bewertet wird.

Das Thema Risiko und Risikomanagement griff auch Susanne Zeller, langjährige Expertin für klinische Prüfungen, wieder auf. Sie stellte den Teilnehmern ausführlich dar, was risikobasiertes Denken eigentlich heißt und worauf es ankommt, seinen Fokus von „alles“ auf „essentials“ umzulenken, ohne dabei die Sicherheit des Patienten und die Belastbarkeit der klinischen Daten aus den Augen zu verlieren. 

Mit der Revision von ICH E6 übertrug man letzten Endes das Risikomanagement aus dem Produktionsbereich auch auf die klinische Entwicklung. Die ICH E6 (R2) gibt das erste Mal detaillierte Vorgaben und beschreibt das Vorgehen, die Methoden und die Ansätze, um Risiken in klinischen Prüfungen zu identifizieren, zu evaluieren, zu kontrollieren, zu kommunizieren und zu dokumentieren. Zum einen auf System-Ebene, aber eben auch für jedes Studienprojekt im Einzelnen und zwar von der Entwicklung des Prüfplans bis hin zur Archivierung. Susanne Zeller riet für einen solchen Prozess interdisziplinäre Teams über alle Abteilungen einzurichten, um potentielle Risiken adäquat beurteilen zu können. Oder anders ausgedrückt – alle müssen an einem Strang ziehen, damit Qualitätsmanagement und Risikomanagement funktionieren können.

Auch für Silja du Mont, Referentin für die Überwachung klinischer Prüfungen beim Regierungspräsidium Freiburg, war das Risikomanagement ein wichtiges Thema in ihrem Vortrag. Sie schilderte den Teilnehmern, dass auch die Inspektoren derzeit in Zusammenarbeit mit BfArM, PEI und Bundesministerium für Gesundheit (BMG) dabei sind, ihre Arbeitsgrundlagen für Regelinspektionen an die neuen Regularien und den risikobasierten Ansatz hin anzupassen. Aber auch ohne „Risiko-Brille“ sieht sie Bereiche, die immer wieder Probleme bereiten. Computergestütze Systeme sind nach wie vor ein Problem aufgrund ihrer Komplexität und technischen Vielfältigkeit, allen voran elektronische Patientenakten. Sie wies darauf hin, dass die Validierung dieser Systeme sowie Validierungspläne essentiell sind. Je nachdem, ob mit diesen Systemen GCP-relevante Daten erhoben werden, steigt und fällt die Kritikalität.

Was den Brexit angeht, so stellt auch dieser die Länderbehörden vor große Herausforderungen, da viele Unternehmen ihren Sitz aus Großbritannien in andere Länder verlagern. Das macht Inspektionen zunehmend schwierig. Ebenso das neu geplante EU-Portal für klinische Prüfungen, da die Länderbehörden von den Informationen im Portal größtenteils abgeschnitten sind. 

Eine spannende Diskussion kam auch auf, als es um die Qualität von Inspektoren ging. Teilnehmer der Tagung merkten an, dass auch hier große Unterschiede bei den Inspektionen zu spüren wären. Frau du Mont berichtete daraufhin von der Installation einer übergeordneten EU-Behörde, welche die Qualität von Behördenvertreter künftig ebenfalls mit spezifischen internen Audits überprüfen soll. Wann diese Behörde ihren Dienst jedoch aufnimmt und wie diese koordiniert werden soll, steht derzeit noch nicht fest.

Mit dem letzten Vortag der Tagung schloss sich der Kreis zum Thema Risiko. Boris Barth von der ADVICE PARTNERS GmbH, einer Agentur für Krisenberatung und -prävention stellte den Teilnehmern vor, wie ein funktionierendes Krisenmanagement in jeder Firma aussehen sollte und wie wichtig gute Krisenkommunikation im Ernstfall für ein Unternehmen sein kann. Anhand des TeGenero-Skandals aus der Vergangenheit und einigen weiteren Beispielen zeigte er dem Auditorium, was professionelle Kommunikation in Risikosituationen ausmacht und wie viel Schaden man mit falschem Verhalten in der Öffentlichkeit anrichten kann. Neben der richtigen firmeninternen Abstimmung kommt es insbesondere auch auf einen professionellen Außenauftritt und den richtigen Umgang mit der Presse und journalistischen Fragetechniken an. 

In der Kürze der Vortragszeit gab er einen spannenden Einblick in die hohe Kunst des Krisenmanagements, so dass die Teilnehmer einen guten Eindruck erhalten haben, welch wichtige Rolle die Krisenkommunikation in Risikosituationen spielt – auch in der pharmazeutischen Industrie.


Autor:
Regine Görner
Stellv. Bereichsleiterin Pharma & Healthcare
r.goerner@forum-institut.de

März 2019

Das neue Monitoring-Konzept für klinische Prüfungen


Am 19. Februar 2019 fand in München das Seminar „Das neue Monitoring-Konzept für klinische Prüfungen“ statt.

Frau Susanne Zeller, Expertin in klinischen Prüfungen mit über 25 Jahren Erfahrung in den Bereichen Monitoring, Auditing und Training, brachte den Teilnehmern an diesem Tag sehr praxisorientiert nahe, wie sich das Monitoring in klinischen Prüfungen derzeit verändert und auch verändern muss, um den neuen regulatorischen Anforderungen gerecht zu werden. 

Sie erläuterte zunächst, wie man sich ein risikobasiertes Monitoring vorstellen muss und machte anhand der Inhalte von ICH GCP E6 (R2) deutlich, an welchen Punkten genau in der Praxis Handlungsbedarf angezeigt ist. Wie führt man eine Risikobewertung für eine klinische Prüfung durch, wie beurteilt man ein Risiko und was macht man anschließend mit den gewonnenen Erkenntnissen? Wie transferiert man diese wieder in einen Handlungsprozess? Anhand einer einfachen Case Study wurde den Teilnehmern schnell klar, es bedarf ein wenig Übung und viel Dokumentationsarbeit, sich die neue Denkweise zu Eigen zu machen und künftig routinemäßig anzuwenden.

Es werden komplett neue Monitoring-Strukturen und -Strategien benötigt: On-site, ggf. Off-site, aber vor allem auch ein zentrales Monitoring im Unternehmen. Theoretisch sind den Freiheiten hier keine Grenzen gesetzt, wie man seine Monitoring-Strategie aufstellen möchte – lediglich das Konzept muss wohl überlegt und auf das jeweilige Projekt zugeschnitten sein. Darauf achten auch die Inspektoren.  
Das gleiche gilt auch für die Arbeitstechniken der Monitore. Auch diese müssen lernen, risikobasiert zu denken und sich mit dem neuen System zu identifizieren. „Ein Fehler, den viele Unternehmen begehen.“, so Frau Zeller, „Sie nehmen die Monitore in Sachen risikobasiertem Denken nicht mit an Bord.“

Aber auch die Stellenbeschreibungen aller Beteiligten in klinischen Prüfungen, die Monitoring-Dokumente, Trainingsstrukturen und -inhalte, SOPs und das Schnittstellenmanagement zu anderen Abteilungen, sind von diesem Wandel betroffen. Ein komplettes Umdenken ist erforderlich, die Abkehr von „das haben wir schon immer so gemacht“ und damit einhergehend auch eine Veränderung in den jeweiligen Firmenstrukturen.
So müssen Monitoring-Plan und auch Monitor-Bericht Änderungen erfahren. Die Komplexität der Monitoring-Aufgaben muss sich im Monitor-Plan widerspiegeln und die Strategie muss erläutert werden, die dem gesamten Prozess zu Grunde liegt. „Wird sie das nicht, ist es ein klares Finding bei einem Audit oder Inspektion!“, gibt Frau Zeller den Teilnehmern zu bedenken. Auch die Berichtstemplates müssen auf die jeweilige Strategie hin angepasst werden. So wird es künftig eben nicht mehr „den“ Monitoring Report geben, sondern sehr spezifische, auf die Besonderheiten des Monitorings angepasste Berichte, welche die Einzelheiten (z.B. das zentralisierte Monitoring im Unternehmen) wiedergeben.

Nicht zuletzt gilt es in diesem Sinne auch den kompletten Aspekt des Monitor-Trainings zu überarbeiten. Wie sieht eine effiziente Schulung für Monitore aus? Welche Arbeitstechniken müssen sie sich neu aneignen, welche bringen sie unter dem risikobasierten Ansatz nicht mehr weiter? Antworten auf diese Fragen müssen in jedem Unternehmen gefunden werden, um den Wechsel im Monitoring auch in der Praxis vollziehen zu können.

Begleitet wurden die Ausführungen von Frau Zeller von zahlreichen Fragen und Diskussionen seitens der Teilnehmer. Mit Vertretern aus Big-Pharma, großen und kleinen CROs sowie der akademischen Forschung trafen immer wieder unterschiedliche Ansichten und Herangehensweisen aufeinander, die den Teilnehmern aber nicht zuletzt viele Denkanstöße für ihre eigenen unternehmensinternen Prozesse  lieferten. 

Am Ende schaffte es Frau Zeller, dass allen Teilnehmern klar wurde, nur wenn man die individuellen Risiken der jeweiligen klinischen Prüfungen kennt und weiß, wie man mit ihnen umgeht, kann das Projekt auch  erfolgreich durchgeführt werden. Und nur dann sind Patientensicherheit und Zuverlässigkeit der erhobenen Daten auch gewährleistet und somit die Forderungen aus ICH GCP vollends erfüllt.

Autor:
Regine Görner
Stellv. Leiterin Pharma & Healthcare
FORUM Institut für Management GmbH
r.goerner@forum-institut.de

   Hier finden Sie den gesamten Newsletter.