64. GMDS-Jahrestagung in Dortmund

Wandel gestalten - Kreative Lösungen für innovative Medizin

vom 08. - 11. September 2019

Tutorials

 

Bitte beachten Sie, dass diese Liste noch nicht vollständig ist und kontinuierlich erweitert wird.

Letztes Update: 09. April 2019 

 Die Anmeldung zu den Tutorials erfolgt wie die Anmeldung zur Jahrestagung über die Online Registry. Tutorials werden am Sonntag (08.09.2019) stattfinden.
Die Preise richten sich nach der jeweiligen Dauer der Tutorials. Wenn nicht gesondert benannt, finden die Tutorials in deutscher Sprache statt.

 

Sonntag, 08.09:

TUT 1: Monte-Carlo-Simulationen in methodischer Forschung und Studienplanung (ganztägig, Organisatoren: J Kruppa, AK Ozga, M Sieg)

In diesem Kurs werden die mathematischen Grundlagen und die Idee von Monte-Carlo Simulationen vermittelt. Zunächst werden das Prinzip des Zufalls-Experiments und die gesetzte der großen Zahlen wiederholt. Im Anschluss wird die Konstruktion von Zufallszahlen in Theorie und Praxis erläutert (Pseudo Random Number Generators) und die Bedeutung und Wahl geeigneter Startwerte diskutiert. Um die Anwendung von Monte-Carlo Simulationen in der medizinischen Biometrie zu verdeutlichen, werden außerdem Markov-Chain-Monte-Carlo-Verfahren (MCMC) eingeführt. Alle Methoden werden an kurzen Beispielen in der Software R illustriert.

Ein wesentlicher Teil des Kurses befasst sich mit der selbstständigen programmiertechnischen Lösung von offenen Fragen zur Studienplanung und der Bewertung statistischer Testverfahren durch Monte-CarloSimulationen. Hierzu sollte jeder Teilnehmer einen Laptop mitbringen auf dem die Software R installiert ist. Es werden eine Reihe verschiedener Aufgaben gestellt, wie z.B. Fallzahlberechnungen für komplexere Analysen und Studiendesigns, Abschätzungen zur Einhaltung des Fehlerniveaus, komplexere Integralberechnungen, Simulation von binären Daten mit einem genetischen Algorithmus. Die Teilnehmer können Aufgaben entsprechend Ihrem Niveau und Ihrem Interesse wählen. Die Dozenten geben dabei aktive Hilfestellung. Beispiellösungen werden am Ende der Kurseinheit besprochen und verteilt.

Im letzten Teil des Kurses werden verschiedene komplexe Beispiele zur Anwendung von MonteCarlo-Simulationen in der Studienplanung und in der methodischen Forschung vorgestellt. Die Beispiele umfassen u.a. die Simulation von rekurrenten Ereignisprozessen, die Simulation von adaptiven Studiendesigns und Simulationen in der statistischen Bioinformatik.

Das Tutorial richtet sich auch explizit an Einsteiger, die mehr über Monte-Carlo-Simulationen wissen wollen. Im weiteren Kursverlauf steigt das Niveau an, es wird aber auf Verständlichkeit sehr viel wert gelegt.

TUT 2: Datenschutz in der medizinischen Forschung (halbtägig, Organisatoren: J Drepper, K Pommerening)

Inhalt
1. Szenario und Anwendungsfälle
2. Rechtliche Grundlagen:
3. Anonymisierung und Pseudonymisierung
4. Patienteninformation und Einwilligungserklärung
5. Das Datenschutzkonzept der TMF
6. Praktisches Vorgehen bei der Erstellung eines Datenschutzkonzepts

Kurzdarstellung
Zunächst werden verschiedene Typen von Forschungsprojekten mit ihren unterschiedlichen Anwendungsfällen vorgestellt. Fokussiert werden Projekte aus dem Umfeld der klinischen Forschung, in denen das Recht auf informationelle Selbstbestimmung der Teilnehmer (Patienten oder gesunde Probanden) zu wahren ist. Ausgenommen sind Projekte aus der Grundlagenforschung ohne Einbeziehung von Patienten oder gesunden Vergleichsprobanden.
Anschließend werden die aktuellen rechtlichen Grundlagen des Datenschutzes in der Forschung in Deutschland auf Basis der EU-Datenschutzgrundverordnung und entsprechend angepasster Bundes- oder Landesgesetze erörtert. U.a. werden die folgenden Fragen beantwortet: Warum gibt es Datenschutzgesetze auf Landes-, Bundes- und europäischer Ebene? Welches Datenschutzrecht ist in einem konkreten Projekt zu berücksichtigen? Wann benötige ich eine Einwilligung der Probanden? Wie lange darf ich die Daten aufbewahren? Was darf ich mit den in einem Projekt erhobenen Daten alles machen? Welcher Datenschutzbeauftragte ist für mich zuständig? Muss ich mich im Vorfeld eines Projekts mit einem Datenschutzbeauftragten abstimmen? Wann darf ich Daten aus der Routineversorgung für die Forschung verwenden [1]? Was muss ich in Bezug auf den Datenschutz in klinischen Studien nach AMG oder MPG beachten?
Die Begriffe der Anonymisierung und Pseudonymisierung werden häufig missverständlich interpretiert und nicht korrekt voneinander unterschieden. Selbst Experten sind sich hinsichtlich der Einordnung von Daten als anonym oder pseudonym nicht in allen Fällen einig. Der Workshop gibt einen Überblick über gängige Definitionen, geht auf die Grenzfälle ein und stellt technische Maßnahmen zur Umsetzung vor. Dabei wird auch der immer häufiger in der Literatur auftauchende Begriff der k-Anonymität erklärt.
Ein zentraler Bestandteil der meisten Datenschutzkonzepte in Forschungsprojekten ist die informierte Einwilligungserklärung. In dem Tutorial wird erörtert, wann von einer „informierten“ Einwilligung ausgegangen werden kann und welche Rahmenbedingungen bei der Formulierung einer solchen Erklärung zu berücksichtigen sind. Gerade bei langfristigen Daten- und Probensammlungen (Biobanken) wird immer häufiger die Frage diskutiert, wie spezifisch der Zweck der Erhebung und Verarbeitung personenbezogener Daten in der Einwilligungserklärung formuliert werden muss. Aus der Forscherperspektive wird entsprechend ein „broad consent“ gefordert. Entsprechend werden die Hintergründe, die vorgeschlagenen Konzepte und deren Grenzen diskutiert.
Die TMF unterstützt Forscher seit vielen Jahren bei der datenschutzgerechten Umsetzung von Forschungsprojekten in der Medizin. Um auch Verbundforschungsprojekte in mehreren Bundesländern mit ihren je eigenen Datenschutzgesetzen und Aufsichtsbehörden umsetzen zu können, hat die TMF generische Datenschutzkonzepte mit den Datenschutzbeauftragten aller 16 Bundesländer und des Bundes abgestimmt. Diese als Blaupause oder Vorlagen benutzbaren Konzepte fokussieren dabei gerade langfristig und vergleichsweise wenig eingeschränkt nutzbare Datensammlungen und Biobanken [2]. Die Konferenz der Datenschutzbeauftragten des Bundes und der Länder hat in ihrer Sitzung im März 2014 allen medizinischen Forschungseinrichtungen und -verbünden die Nutzung des TMF-Leitfadens als Basis zur konkreten Ausgestaltung eigener Datenschutzkonzepte empfohlen [3].

Abschließend werden die aktuell zur Verfügung stehenden Angebote zur Unterstützung von Forschern bei der datenschutzgerechten Umsetzung ihrer Forschungsprojekte vorgestellt.

1. Schneider, U.K., Sekundärnutzung klinischer Daten - Rechtliche Rahmenbedingungen. 2015, Medizinisch Wissenschaftliche Verlagsgesellschaft, Berlin.
2. Pommerening, K., Drepper, J., Helbing, K., Ganslandt, T., Leitfaden zum Datenschutz in medizinischen Forschungsprojekten - Generische Lösungen der TMF 2.0. 2014, Medizinisch Wissenschaftliche Verlagsgesellschaft, Berlin.
3. Website des Hessischen Datenschutzbeauftragten: https://datenschutz.hessen.de/datenschutz/statistik-und-wissenschaft/wissenschaft/neues-rahmenkonzept-f%C3%BCr-die-vernetzte (Abruf: 26.2.2019)

TUT 3: Accelerating data science in healthcare with Python and R (ganztägig, Organisatoren: H Kim, M Hagman)

Target audience
Data analysts who want to learn R and Python and ultimately transform their career path to be a data scientist

Tutorial description
Conventional analytics tools (e.g. SAS, SPSS) and database systems (e.g. MySQL, Oracle, SAP) are designed neither for data visualization nor for most recent data science application. This tutorial will open the door to learn Python and R and will offer a gentle guideline on how to integrate these languages to their daily work with a handful of motivating examples. The participant will implement the examples on their laptop.

Data

MIMIC-III demo is a publicly available de-identified clinical dataset consisting of 100 of Intensive Care Unit (ICU) patients. It includes demographics, vital signs, laboratory tests, medications, and more. (https://mimic.physionet.org/gettingstarted/demo/)

TUT 4: Einrichtung und Einsatz der Open Source Software ConQuery zur schnellen und einfachen Datenanalyse mit einem Beispieldatensatz (halbtägig, Organisatoren: J Walker, M Albrecht A, Hegner M, von Knobloch M)

Hintergrund 
Die Analyse großer patientenbezogener Datenbestände (z.B. Krankenhausdaten, Leistungsdaten von Krankenkassen, Registerdaten) besitzt enormes Potenzial für eine fundierte Entscheidungsfindung. Der Zeit- und Ressourcenaufwand für derartige Auswertungen ist jedoch hoch und es bedarf fortgeschrittener analytischer Kenntnisse sowie einer engen Abstimmung zwischen Mitarbeitern, die die inhaltliche Bewertung der Ergebnisse vornehmen und Experten auf dem Gebiet der Analytik. Um einfacher und schneller zu datenbasierten Entscheidungen zu kommen, wurde von uns die webbasierte Softwarelösung EVA (http://www.ingef.de/gesundheitsforschung/self-service-analytics/) entwickelt und im Projekt „ConQuery“ (https://github.com/bakdata/conquery) Open-Source gestellt.

Inhalt des Tutorials
Im Rahmen des Workshops soll gezeigt werden, wie die Software ConQuery mit einem eigenen Datensatz aufgesetzt wird. Als Beispieldatensatz wird dazu ein generierter Datensatz aus dem Gesundheitswesen verwendet, der Patientenhistorien mit Diagnosen, Verschreibungen, usw. über mehrere Jahre umfasst. Auf dem Datensatz werden dann verschiedene Anfragetypen demonstriert. Im zweiten Teil des Workshops wird demonstriert wie ConQuery direkt über die Backend-API via JSON abgefragt werden kann. Zusätzlich wird gezeigt wie ConQuery eigenständig um Anfragefunktionalität erweitert und für eigene Daten angepasst werden kann. 

Die Teilnehmer lernen dabei
Installation der Open Source Software ConQuery
Konfiguration der Software für das Importieren, Filtern und Aggregieren des Beispieldatensatz mittels JSON-Dateien
Erweiterung der vorhanden Filterfunktionalität (JAVA-Programmierung)

Ziel des Workshops
Teilnehmer sollen in die Lage versetzt werden ConQuery mit eigenen Daten aufzusetzen und zu adaptieren.

Anforderungen an Teilnehmer
 Im Idealfall eigener Laptop und JAVA-Kenntnisse

Schlüsselwörter
Big Data, Real World Evidence, Sekundärdatenanalyse, Open Source

TUT 5: Wie stelle ich eine Compliance mit den Open-Access-Mandaten der Forschungsförderer sicher? (halbtägig, Organisatoren: J Schmitz, B Nölte)

 Die Öffnung der Wissenschaft wird in den letzten Jahren verstärkt nachgefragt, wobei der freie Zugang zu wissenschaftlicher Literatur eine zentrale Rolle spielt. Insbesondere Forschungsförderer verknüpfen ihre Projektförderung mit sogenannten Open-Access-Mandaten, wie zuletzt im Rahmen der Initiative „Plan S“. So möchte „Plan S“ Publikationen im Open-Access für Ergebnisse aus geförderten Projekten ab 2020 verpflichtend machen. Neben 16 internationalen und nationalen Forschungsförderern (wie z.B. dem FWF) zählen auch die Europäische Kommission und der Europäische Forschungsrat zu diesem Zusammenschluss. Ebenso sind Open-Access-Publikationen verpflichtend, wenn sie im Rahmen von Horizon 2020 durch die Europäische Kommission oder wenn sie durch den NIH, den WellcomeTrust oder die Gates Foundation gefördert werden.

Ziel dieses Tutorials ist es, interessierten WissenschaftlerInnen eine praxisorientierte Einführung zu bieten, sodass sie nach Besuch des Tutorials in der Lage sind, die von den Forschungsförderern geforderten Open-Access-Anforderungen, die sich im Zusammenhang mit einer Projektförderung ergeben, praktisch umzusetzen.

Hierzu möchte das Tutorial die Open-Access-Mandate der EU und der am „Plan S“ beteiligten Forschungsförderer, sowie des NIH, des WellcomeTrust und der Gates Foundation vorstellen. Anhand dieser konkreten Beispiele soll erläutert werden, wie eine Compliance erreicht werden kann. Grundlage hierfür wird ein kurzer Überblick darüber sein, was Open-Access ist und welche Gründe für Open-Access sprechen (einschließlich der Beweggründe der Forschungsförderer, solche Mandate zu erlassen). Sodann soll insbesondere auf die Fragen eingegangen werden, wie Open-Access realisiert werden kann, wie Open-Access-Publikationsgebühren finanziert werden können, welche Regelungen zur Zweitveröffentlichung seitens der (Zeitschriften-)Verlage bestehen, welche Lizenzen verwendet und wie Möglichkeiten zur Zweitveröffentlichung genutzt werden können, sowie, wie es gelingt, „Predatory Publishers oder Journals“ zu identifizieren.

Das Tutorial soll von den unter 5. genannten Personen gestaltet werden. Neben der Möglichkeit, während des ganzen Workshops Fragen zu stellen, soll die Thematik anhand praxisnaher Beispiele bzw. konkreter Mandate durchgesprochen werden. Dabei wird ein besonderer Fokus auf nützliche Tools (z.B. Sherpa/RoMEO, Sherpa/Juliet, OpenDOAR, Directory of Open Access Journals, Think-Check-Submit) gelegt, die bei der Publikation von Forschungsergebnissen im Open-Access eine sinnvolle Hilfestellung leisten.