64. GMDS-Jahrestagung in Dortmund

Wandel gestalten - Kreative Lösungen für innovative Medizin

vom 08. - 11. September 2019

Tutorials

 

Bitte beachten Sie, dass diese Liste noch nicht vollständig ist und kontinuierlich erweitert wird.

Letztes Update:  11. Juni 2019 

Die Anmeldung zu den Tutorials erfolgt wie die Anmeldung zur Jahrestagung über die Online Registry. Tutorials werden am Sonntag (08.09.) und Mittwoch (11.09.) stattfinden. Die Preise richten sich nach der jeweiligen Dauer der Tutorials. Wenn nicht gesondert benannt, finden die Tutorials in deutscher Sprache statt.

Veranstaltungen Sonntag:

 Veranstaltungen Mittwoch:

 

Sonntag, 08.09:

TUT 1: Monte-Carlo-Simulationen in methodischer Forschung und Studienplanung (ca. 8 Std., Organisatoren: J Kruppa, AK Ozga, M Sieg)

In diesem Kurs werden die mathematischen Grundlagen und die Idee von Monte-Carlo Simulationen vermittelt. Zunächst werden das Prinzip des Zufalls-Experiments und die gesetzte der großen Zahlen wiederholt. Im Anschluss wird die Konstruktion von Zufallszahlen in Theorie und Praxis erläutert (Pseudo Random Number Generators) und die Bedeutung und Wahl geeigneter Startwerte diskutiert. Um die Anwendung von Monte-Carlo Simulationen in der medizinischen Biometrie zu verdeutlichen, werden außerdem Markov-Chain-Monte-Carlo-Verfahren (MCMC) eingeführt. Alle Methoden werden an kurzen Beispielen in der Software R illustriert.

Ein wesentlicher Teil des Kurses befasst sich mit der selbstständigen programmiertechnischen Lösung von offenen Fragen zur Studienplanung und der Bewertung statistischer Testverfahren durch Monte-CarloSimulationen. Hierzu sollte jeder Teilnehmer einen Laptop mitbringen auf dem die Software R installiert ist. Es werden eine Reihe verschiedener Aufgaben gestellt, wie z.B. Fallzahlberechnungen für komplexere Analysen und Studiendesigns, Abschätzungen zur Einhaltung des Fehlerniveaus, komplexere Integralberechnungen, Simulation von binären Daten mit einem genetischen Algorithmus. Die Teilnehmer können Aufgaben entsprechend Ihrem Niveau und Ihrem Interesse wählen. Die Dozenten geben dabei aktive Hilfestellung. Beispiellösungen werden am Ende der Kurseinheit besprochen und verteilt.

Im letzten Teil des Kurses werden verschiedene komplexe Beispiele zur Anwendung von MonteCarlo-Simulationen in der Studienplanung und in der methodischen Forschung vorgestellt. Die Beispiele umfassen u.a. die Simulation von rekurrenten Ereignisprozessen, die Simulation von adaptiven Studiendesigns und Simulationen in der statistischen Bioinformatik.

Das Tutorial richtet sich auch explizit an Einsteiger, die mehr über Monte-Carlo-Simulationen wissen wollen. Im weiteren Kursverlauf steigt das Niveau an, es wird aber auf Verständlichkeit sehr viel wert gelegt.

TUT 2: Datenschutz in der medizinischen Forschung (ca. 4.5 Std. , Organisatoren: J Drepper, K Pommerening)

Inhalt
1. Szenario und Anwendungsfälle
2. Rechtliche Grundlagen:
3. Anonymisierung und Pseudonymisierung
4. Patienteninformation und Einwilligungserklärung
5. Das Datenschutzkonzept der TMF
6. Praktisches Vorgehen bei der Erstellung eines Datenschutzkonzepts

Kurzdarstellung
Zunächst werden verschiedene Typen von Forschungsprojekten mit ihren unterschiedlichen Anwendungsfällen vorgestellt. Fokussiert werden Projekte aus dem Umfeld der klinischen Forschung, in denen das Recht auf informationelle Selbstbestimmung der Teilnehmer (Patienten oder gesunde Probanden) zu wahren ist. Ausgenommen sind Projekte aus der Grundlagenforschung ohne Einbeziehung von Patienten oder gesunden Vergleichsprobanden.
Anschließend werden die aktuellen rechtlichen Grundlagen des Datenschutzes in der Forschung in Deutschland auf Basis der EU-Datenschutzgrundverordnung und entsprechend angepasster Bundes- oder Landesgesetze erörtert. U.a. werden die folgenden Fragen beantwortet: Warum gibt es Datenschutzgesetze auf Landes-, Bundes- und europäischer Ebene? Welches Datenschutzrecht ist in einem konkreten Projekt zu berücksichtigen? Wann benötige ich eine Einwilligung der Probanden? Wie lange darf ich die Daten aufbewahren? Was darf ich mit den in einem Projekt erhobenen Daten alles machen? Welcher Datenschutzbeauftragte ist für mich zuständig? Muss ich mich im Vorfeld eines Projekts mit einem Datenschutzbeauftragten abstimmen? Wann darf ich Daten aus der Routineversorgung für die Forschung verwenden [1]? Was muss ich in Bezug auf den Datenschutz in klinischen Studien nach AMG oder MPG beachten?
Die Begriffe der Anonymisierung und Pseudonymisierung werden häufig missverständlich interpretiert und nicht korrekt voneinander unterschieden. Selbst Experten sind sich hinsichtlich der Einordnung von Daten als anonym oder pseudonym nicht in allen Fällen einig. Der Workshop gibt einen Überblick über gängige Definitionen, geht auf die Grenzfälle ein und stellt technische Maßnahmen zur Umsetzung vor. Dabei wird auch der immer häufiger in der Literatur auftauchende Begriff der k-Anonymität erklärt.
Ein zentraler Bestandteil der meisten Datenschutzkonzepte in Forschungsprojekten ist die informierte Einwilligungserklärung. In dem Tutorial wird erörtert, wann von einer „informierten“ Einwilligung ausgegangen werden kann und welche Rahmenbedingungen bei der Formulierung einer solchen Erklärung zu berücksichtigen sind. Gerade bei langfristigen Daten- und Probensammlungen (Biobanken) wird immer häufiger die Frage diskutiert, wie spezifisch der Zweck der Erhebung und Verarbeitung personenbezogener Daten in der Einwilligungserklärung formuliert werden muss. Aus der Forscherperspektive wird entsprechend ein „broad consent“ gefordert. Entsprechend werden die Hintergründe, die vorgeschlagenen Konzepte und deren Grenzen diskutiert.
Die TMF unterstützt Forscher seit vielen Jahren bei der datenschutzgerechten Umsetzung von Forschungsprojekten in der Medizin. Um auch Verbundforschungsprojekte in mehreren Bundesländern mit ihren je eigenen Datenschutzgesetzen und Aufsichtsbehörden umsetzen zu können, hat die TMF generische Datenschutzkonzepte mit den Datenschutzbeauftragten aller 16 Bundesländer und des Bundes abgestimmt. Diese als Blaupause oder Vorlagen benutzbaren Konzepte fokussieren dabei gerade langfristig und vergleichsweise wenig eingeschränkt nutzbare Datensammlungen und Biobanken [2]. Die Konferenz der Datenschutzbeauftragten des Bundes und der Länder hat in ihrer Sitzung im März 2014 allen medizinischen Forschungseinrichtungen und -verbünden die Nutzung des TMF-Leitfadens als Basis zur konkreten Ausgestaltung eigener Datenschutzkonzepte empfohlen [3].

Abschließend werden die aktuell zur Verfügung stehenden Angebote zur Unterstützung von Forschern bei der datenschutzgerechten Umsetzung ihrer Forschungsprojekte vorgestellt.

1. Schneider, U.K., Sekundärnutzung klinischer Daten - Rechtliche Rahmenbedingungen. 2015, Medizinisch Wissenschaftliche Verlagsgesellschaft, Berlin.
2. Pommerening, K., Drepper, J., Helbing, K., Ganslandt, T., Leitfaden zum Datenschutz in medizinischen Forschungsprojekten - Generische Lösungen der TMF 2.0. 2014, Medizinisch Wissenschaftliche Verlagsgesellschaft, Berlin.
3. Website des Hessischen Datenschutzbeauftragten: https://datenschutz.hessen.de/datenschutz/statistik-und-wissenschaft/wissenschaft/neues-rahmenkonzept-f%C3%BCr-die-vernetzte (Abruf: 26.2.2019)

TUT 3: Accelerating data science in healthcare with Python and R (ca. 8 Std., Organisatoren: H Kim, M Hagman)

Target audience
Data analysts who want to learn R and Python and ultimately transform their career path to be a data scientist

Tutorial description
Conventional analytics tools (e.g. SAS, SPSS) and database systems (e.g. MySQL, Oracle, SAP) are designed neither for data visualization nor for most recent data science application. This tutorial will open the door to learn Python and R and will offer a gentle guideline on how to integrate these languages to their daily work with a handful of motivating examples. The participant will implement the examples on their laptop.

Data

MIMIC-III demo is a publicly available de-identified clinical dataset consisting of 100 of Intensive Care Unit (ICU) patients. It includes demographics, vital signs, laboratory tests, medications, and more. (https://mimic.physionet.org/gettingstarted/demo/)

TUT 4: Einrichtung und Einsatz der Open Source Software ConQuery zur schnellen und einfachen Datenanalyse mit einem Beispieldatensatz (ca. 2.5 Std., Organisatoren: J Walker, M Albrecht A, Hegner M, von Knobloch M)

Hintergrund 
Die Analyse großer patientenbezogener Datenbestände (z.B. Krankenhausdaten, Leistungsdaten von Krankenkassen, Registerdaten) besitzt enormes Potenzial für eine fundierte Entscheidungsfindung. Der Zeit- und Ressourcenaufwand für derartige Auswertungen ist jedoch hoch und es bedarf fortgeschrittener analytischer Kenntnisse sowie einer engen Abstimmung zwischen Mitarbeitern, die die inhaltliche Bewertung der Ergebnisse vornehmen und Experten auf dem Gebiet der Analytik. Um einfacher und schneller zu datenbasierten Entscheidungen zu kommen, wurde von uns die webbasierte Softwarelösung EVA (http://www.ingef.de/gesundheitsforschung/self-service-analytics/) entwickelt und im Projekt „ConQuery“ (https://github.com/bakdata/conquery) Open-Source gestellt.

Inhalt des Tutorials
Im Rahmen des Workshops soll gezeigt werden, wie die Software ConQuery mit einem eigenen Datensatz aufgesetzt wird. Als Beispieldatensatz wird dazu ein generierter Datensatz aus dem Gesundheitswesen verwendet, der Patientenhistorien mit Diagnosen, Verschreibungen, usw. über mehrere Jahre umfasst. Auf dem Datensatz werden dann verschiedene Anfragetypen demonstriert. Im zweiten Teil des Workshops wird demonstriert wie ConQuery direkt über die Backend-API via JSON abgefragt werden kann. Zusätzlich wird gezeigt wie ConQuery eigenständig um Anfragefunktionalität erweitert und für eigene Daten angepasst werden kann. 

Die Teilnehmer lernen dabei
Installation der Open Source Software ConQuery
Konfiguration der Software für das Importieren, Filtern und Aggregieren des Beispieldatensatz mittels JSON-Dateien
Erweiterung der vorhanden Filterfunktionalität (JAVA-Programmierung)

Ziel des Workshops
Teilnehmer sollen in die Lage versetzt werden ConQuery mit eigenen Daten aufzusetzen und zu adaptieren.

Anforderungen an Teilnehmer
 Im Idealfall eigener Laptop und JAVA-Kenntnisse

Schlüsselwörter
Big Data, Real World Evidence, Sekundärdatenanalyse, Open Source

TUT 5: Wie stelle ich eine Compliance mit den Open-Access-Mandaten der Forschungsförderer sicher? (ca. 2.5 Std., Organisatoren: J Schmitz, B Nölte)

 Die Öffnung der Wissenschaft wird in den letzten Jahren verstärkt nachgefragt, wobei der freie Zugang zu wissenschaftlicher Literatur eine zentrale Rolle spielt. Insbesondere Forschungsförderer verknüpfen ihre Projektförderung mit sogenannten Open-Access-Mandaten, wie zuletzt im Rahmen der Initiative „Plan S“. So möchte „Plan S“ Publikationen im Open-Access für Ergebnisse aus geförderten Projekten ab 2020 verpflichtend machen. Neben 16 internationalen und nationalen Forschungsförderern (wie z.B. dem FWF) zählen auch die Europäische Kommission und der Europäische Forschungsrat zu diesem Zusammenschluss. Ebenso sind Open-Access-Publikationen verpflichtend, wenn sie im Rahmen von Horizon 2020 durch die Europäische Kommission oder wenn sie durch den NIH, den WellcomeTrust oder die Gates Foundation gefördert werden.

Ziel dieses Tutorials ist es, interessierten WissenschaftlerInnen eine praxisorientierte Einführung zu bieten, sodass sie nach Besuch des Tutorials in der Lage sind, die von den Forschungsförderern geforderten Open-Access-Anforderungen, die sich im Zusammenhang mit einer Projektförderung ergeben, praktisch umzusetzen.

Hierzu möchte das Tutorial die Open-Access-Mandate der EU und der am „Plan S“ beteiligten Forschungsförderer, sowie des NIH, des WellcomeTrust und der Gates Foundation vorstellen. Anhand dieser konkreten Beispiele soll erläutert werden, wie eine Compliance erreicht werden kann. Grundlage hierfür wird ein kurzer Überblick darüber sein, was Open-Access ist und welche Gründe für Open-Access sprechen (einschließlich der Beweggründe der Forschungsförderer, solche Mandate zu erlassen). Sodann soll insbesondere auf die Fragen eingegangen werden, wie Open-Access realisiert werden kann, wie Open-Access-Publikationsgebühren finanziert werden können, welche Regelungen zur Zweitveröffentlichung seitens der (Zeitschriften-)Verlage bestehen, welche Lizenzen verwendet und wie Möglichkeiten zur Zweitveröffentlichung genutzt werden können, sowie, wie es gelingt, „Predatory Publishers oder Journals“ zu identifizieren.

Das Tutorial soll von den unter 5. genannten Personen gestaltet werden. Neben der Möglichkeit, während des ganzen Workshops Fragen zu stellen, soll die Thematik anhand praxisnaher Beispiele bzw. konkreter Mandate durchgesprochen werden. Dabei wird ein besonderer Fokus auf nützliche Tools (z.B. Sherpa/RoMEO, Sherpa/Juliet, OpenDOAR, Directory of Open Access Journals, Think-Check-Submit) gelegt, die bei der Publikation von Forschungsergebnissen im Open-Access eine sinnvolle Hilfestellung leisten.

 TUT 6: Datenqualität in Beobachtungsstudien: ein konzeptioneller Ansatz mit der Programmiersprache R (ca. 1.5h, Organisator: A. Richter)

Zielgruppe
Dieses Tutorial richtet sich an Personen, welche die Qualität von Studiendaten in der täglichen Routine oder zur Bearbeitung einer wissenschaftlichen Fragestellung beurteilen. Vorkenntnisse in R sind erforderlich

Anforderungen an Teilnehmer
Vorkenntnisse in R

Kurzbeschreibung

Eine allgemeingültige Auffassung von Datenqualität über unterschiedliche Studientypen und Studiendaten hinweg ist nicht existent (1,2). Dieses Tutorial leistet eingangs eine konzeptionelle Abgrenzung von Beobachtungsstudien mit primärer Datengenerierung von administrativen Datenquellen und Routinedaten in Hinblick auf Anforderungen der Datenqualität. Im Fokus steht dann die Adressierung von drei wesentlichen Dimensionen der Datenqualität mit der Programmiersprache R (3). Hierfür wird ein simulierter Datensatz bereitgestellt, der unterschiedliche Beispiele von Verzerrungen abbildet: design-bedingt und zufällig fehlende Daten, widersprüchliche Daten, unplausible Daten, Untersuchereffekte, unerwartete Zeittrends und inkonsistente Messungen. Die Qualität dieser Daten wird mit R-Funktionen untersucht, die im Rahmen eines DFG-Projekts entwickelt wurden. Den Teilnehmern werden der strukturelle Aufbau dieser R-Funktionen inkl. notwendiger Hilfsfunktionen sowie die Voraussetzungen zu deren Anwendung erläutert, um einen Transfer auf andere Studiendaten zu ermöglichen. Hierfür erhalten sie Zugang zu einer projektspezifischen Dokumentation der R-Funktionen, welche aus Anwender- und nicht aus Programmiererperspektive mit R-markdown (4) erstellt wurde. Jede einzelne Dokumentation einer R-Funktion, enthält Beispieldaten sowie notwendige Metadaten, erläutert die Argumente der R-Funktionen, enthält ein Anwendungsbeispiel, die Interpretation der Ergebnisse und notwendige Literaturangaben. Das gesamte Tutorial wird von einer im Rahmen des DFG-Projekts erstellten Website begleitet, welche alle konzeptionellen Betrachtungen, Beispieldaten und die Dokumentation der R-Funktionen bereitstellt.

1. Keller S, Korkmaz G, Orr M, et al. The evolution of data quality: Understanding the transdisciplinary origins of data quality concepts and approaches. 2017
2. Watts S, Shankaranarayanan G, Even A. Data quality assessment in context: A cognitive perspective. Decision Support Systems 2009;48(1):202-11.
3. Team RC. R: A language and environment for statistical computing. R Foundation for Statistical Computing, Vienna, Austria. 2013: ISBN 3-900051-07-0, 2014.
4. JJ Allaire, Yihui Xie, Jonathan McPherson, et al. rmarkdown: Dynamic Documents for R. R package version 1.9. 2018

TUT 7: FHIR für Spezifizierer (ca. 6 Std., Organisator: S. Lang)

Kurzbeschreibung
FHIR ermöglicht die Erstellung von Spezifikationen in sowohl menschenlesbarer als auch maschinenverarbeitbarer Form.
Das Tutorial führt zunächst in die Grundlagen der für Spezifikationen relevanten Teile von FHIR ein, namentlich in die Conformance- und Terminologie-Ressourcen und -Mechanismen.
Im Weiteren erfolgt dann eine Vertiefung anhand von konkreten Beispielen zur Erstellung, Publizierung und Validierung von FHIR-Profilen und -Implementierungsleitfäden.

Ziel

Grundprinzipien von FHIR-Profilen und -Terminologien und Kenntnis gängiger Methoden und Werkzeuge zur Profilierung, Veröffentlichung und Validierung von FHIR-basierten Spezifikationen

Zielgruppe
Spezifizierer von Implementierungsleitfäden und Softwaresystemen sowie andere Personen aus der medizinischen Informatik. Grundkenntnisse im Umgang mit FHIR sind wünschenswert, aber nicht notwendigerweise erforderlich.

Anforderungen an Teilnehmer
Zur aktiven Teilnahme am Tutorial ist ein eigener Laptop sinnvoll. Im Tutorial wird der unter Windows laufende Profil-Editor Forge genutzt (ggf. mittels WINE auch unter anderen Betriebssystemen nutzbar). Weiterhin wird ein beliebiger Text-Editor benötigt. Alle weiteren vorgestellten Tools sind plattformübergreifend bzw. webbasiert.

TUT 8:Tutorial zum IT-Portal ToolPool Gesundheitsforschung (ca.  1.5 Std., Organisator: K. Kaulke)

Kurzbeschreibung
Das im März 2017 gelaunchte Portal ToolPool Gesundheitsforschung[i] der TMF ist ein Angebot zur Unterstützung der Planung und des Aufbaus komplexer IT-Infrastrukturen[ii]. Es bündelt den Zugang zu IT-Werkzeugen und anderen Hilfestellungen und Beratungsangeboten, die unter dem Dach der TMF wie auch in anderen Organisationen und Forschungseinrichtungen erarbeitet und für die Nutzung in der Community und darüber hinaus zur Verfügung gestellt werden. Inhaltlich ist das Portal eng mit dem IT-Report[iii] verknüpft, welcher seit 2013 eine kontinuierliche Bestands- und Bedarfsanalyse als Grundlage für die strategische Weiterentwicklung der Forschungsdateninfrastrukturen in der Medizin repräsentiert. Informationen zum Einsatz der Produkte in konkreten Projekten sowie interaktive Angebote wie Erfahrungsberichte von Nutzern sollen dazu beitragen, das richtige Tool zu finden und die Vernetzung unter den Anwendern zu erleichtern. Besonders Nutzern mit geringen IT-Fachkenntnissen hilft das Portal, das geeignete Produkt für ihr Forschungsprojekt zu finden. Zu den Produktkategorien gehören Software, eServices, Gutachten, Checklisten sowie Beratungsangebote und Schulungen.
Im Tutorial wird zunächst über die Hintergründe der Entstehung dieses Portals referiert und die Einbettung dessen in die IT-Landschaft der medizinischen Forschung dargelegt. Darüber hinaus wird auf die Rolle der TMF-AG IT-Infrastruktur und Qualitätsmanagement sowie der dazugehörigen Taskforce ToolPool als Kontrollinstanzen des Portals eingegangen. Anschließend sollen die Teilnehmer schrittweise die Funktionen und Möglichkeiten der Website erfahren. In dem Zusammenhang wird ihnen gezeigt, wie Produkte gesucht, markiert und kommentiert werden können. Im letzten Themenblock des Tutorials wird detailliert beschrieben, wie Produkte eingetragen werden können. Dafür werden zunächst die verschiedenen Produktkategorien der ToolPool-Einträge vorgestellt und deren Aufnahmekriterien für das Portal erklärt. Im Anschluss daran werden der Umgang mit dem Back-End und die Qualitätskontrolle der Einträge erläutert und abschließend Vorschläge zur Weiterentwicklung des Portals aufgenommen.

[i] https://www.toolpool-gesundheitsforschung.de/
[ii] Schütt A, Drepper J und Neick I (2017): „Digitaler Wandel: TMF unterstützt Aufbau von Forschungsdateninfrastrukturen – IT-Report 2016 und neues Portal ToolPool Gesundheitsforschung.“ e-Health (2017): 136-139.
[iii] Drepper J, Semler SC. IT-Infrastrukturen in der patientenorientierten Forschung. Aktueller Stand und Handlungsbedarf – 2016. Verfasst und vorgelegt vom IT-Reviewing-Board der TMF. AKA. 2016 Dez 12: www.tmf-ev.de/Produkte/ITReport.

TUT 9: NGS data analysis with Galaxy for clinical applications (ca. 8 Std., Organisator: M. Wolfien)

Kurzbeschreibung
RNA-Sequencing (RNA-Seq) has become a widely used approach to study quantitative and qualitative aspects of transcriptomic data. The variety of RNA-Seq protocols, experimental study designs and the obtained data processing strategies greatly affect downstream and comparative analyses. Unless the low entrance barriers and easy-to-use experimental protocols, the challenge of proper, transparent, and reproducible data analyses are still a bottleneck.
In this joint GMDS and de.NBI (German Network for Bioinformatics Infrastructure) tutorial, we will give a short summary for the current use and possible future applications of the Next Generation Sequencing (NGS) technology in the clinical context. This will be followed by basic NGS/RNA-Seq data analysis procedures (quality control, alignment, quantification) and a showcase project, which will demonstrate the semi-automatized data analysis of a clinical NGS dataset with the help of an analysis workflow. Utilizing the Galaxy environment, we will teach and show all relevant steps during the computational data analysis as well as giving further suggestions to link the obtained results to current gene-disease related databases or other relevant resources to promote the clinical impact of the technology. Finally, we would like to discuss ongoing or planned NGS experiments of the participants to give specific advice in their NGS data analysis.

TUT 10: REPRODUCIBLE, TRANSPARENT AND INTERACTIVE – REPORTING EPIDEMIOLOGICAL RESEARCH WITH RMARKDOWN (ca. 4 Std, Organisator S. Glöckner)

Kurzbeschreibung
In an increasing number of peer-reviewed journals, submitting an academic paper also requires the upload of reproducible data and source code that generated all conclusions in the article [1]. In the data scientific domain, popular websites like kaggle.com, online publishing platforms like medium.com and multiple online blogs share source code in from of jupyter notebooks or rmarkdown documents. Rmarkdown documents allow the embedding of R code within the markdown, a lightweight text formatting syntax [2]. This allows an easier review of R code and its output within text.
This workshop will introduce the participants to rmarkdown. We will show how to easily write documents, reports, articles or a thesis with this approach. Furthermore, R allows to export these documents to word or pdf files, but also to html documents. This enables a variety of new features like embedding interactive graphs or tables, allowing readers to individually filter, zoom or select features in the reported outcomes.
[1]       „Does your code stand up to scrutiny?“, Nature, Bd. 555, Nr. 7695, S. 142–142, März 2018.
[2]       J. J. Allaire u. a., rmarkdown: Dynamic Documents for R. 2018.

TUT 11: Advanced Methods for Survival Data (ca. 3 Std., Organisatorin M. Cube)

Kurzbeschreibung
Die klassische Analyse von Ereigniszeiten umfasst in der Regel eine Schätzung der Überlebenswahrscheinlichkeit mithilfe des Kaplan-Meier Schätzers und die Untersuchung von Risikofaktoren basierend auf dem Cox Regressions Modell.
Oftmals liegt allerdings eine komplexere Datenstruktur vor und die naïve Verwendung dieser Methoden führt zu verzerrten Schätzungen und falschen Schlüssen. Multistadienmodelle haben sich zu einem hilfreichen Konzept entwickelt um komplexe Ereigniszeitprozesse korrekt zu analysieren und solche Verzerrungen zu vermeiden.
In diesem Tutorium vermitteln wir ein Grundverständnis für die Analyse von Daten mit konkurrierenden Risiken und zeitabhängigen Expositionen mithilfe von Multistadienmodellen ([1]). Als Anwendungsbeispiel dient die Untersuchung von Krankenhausinfektionen und deren Einfluss auf Krankenhausmortalität. Es werden beispielhaft die möglichen Verzerrungen bei naiver Anwendung der klassischen Methoden erklärt ([2,3]), außerdem werden Alternativen zur unverzerrten Schätzung der Zielparameter erläutert (u.a. Aalen-Johansen Schätzer, Subdistribution Hazard Ratio, Cox Regression für eine binäre zeitabhängige Exposition).

Anforderungen an Teilnehmer
Die Seminarteilnehmer sind eingeladen ihren eigenen Laptop mitzubringen um verschiedene Übungsaufgaben selbst in R durchzuführen. Vorkenntnisse in R sind von Vorteil, aber nicht notwendig.

[1] Beyersmann, Jan, Arthur Allignol, and Martin Schumacher. Competing risks and multistate models with R. Springer Science & Business Media, 2011.
[2] Wolkewitz, Martin, Maja von Cube, and Martin Schumacher. "Multistate modeling to analyze nosocomial infection data: an introduction and demonstration." Infection Control & Hospital Epidemiology 38.8 (2017): 953-959.
[3] von Cube, Maja, Martin Schumacher, and Martin Wolkewitz. "Basic parametric analysis for a multi-state model in hospital epidemiology." BMC Medical Research Methodology 17.1 (2017): 111. 

TUT 12: Introduction to multiscale parameter estimation (ca. 4 Std., Organisatoren: M. Kukuk, N. Spicher)

Kurzbeschreibung
Estimating the unknown parameters of a model from observed, noisy data points that then together describe the underlying signal in a “best” way, lies at the heart of many applications in medical engineering. For one-dimensional (1D) data sets, perhaps the most important model, describing peak like signals or distributions encountered in a wide range of real-life phenomena and experiments is the Gaussian function, given by its amplitude A, location μ and width σ. For example, in spectroscopy it is used to accurately locate the wavelength (μ) of a Doppler broadened absorption or emission line and to determine the line strength (σ). In flow cytometry, DNA histograms are analyzed with Gaussian distributions for modeling DNA content by measuring the dispersion of fluorescent dye. And in electrocardiography (ECG), Gaussian functions are fitted to sections of the ECG waveform, such as P-, T-waves and QRS complexes.
In this tutorial, we present a new method for estimating those model parameters from signals of low SNR up to -10dB. The method is robust towards various forms of noise distributions (Gaussian, uniform, lognormal), including correlated 1/f noise (pink, brown).
By combining wavelet theory with parameter estimation, we were able to derive scale dependent algebraic expressions for all parameters of a Gaussian derivative model. Based on this analytical framework, our method estimates all parameters by substituting into a given expression numerically obtained values, such as the zero-crossings of the multiscale decompositions of the noisy input signal, using Gaussian derivative wavelets. Thereby, our method reduces the problem of parameter estimation to the problem of classifying zero-crossings in scale-space to classes “corresponds to the signal” and “corresponds to noise”. If for a given signal the classification problem is solved correctly, accurate estimates are obtained. If not, estimates are often entirely wrong.
The tutorial addresses medical engineering scientists, who are interested in learning about the theoretical and practical background as well as the advantages and shortcomings of this new parameter estimation technique. In a practical hands-on session, participants use MATLAB to explore our method’s performance on synthetic as well as real-life data such as ECG recordings and spectroscopy data.

Anforderungen an Teilnehmer
Basic knowledge in Matlab is beneficial, but not necessary.

[1] Markus Kukuk and Nicolai Spicher. Parameter Estimation Based on Scale-Dependent Algebraic Expressions and Scale-Space Fitting. IEEE Transactions on Signal Processing, 67(6):1431--1446, 2019. https://doi.org/10.1109/TSP.2018.2887190
[2] Nicolai Spicher and Markus Kukuk. ECG delineation using a piecewise Gaussian derivative model with parameters estimated from scale-dependent algebraic expressions. In: Proceedings of the 41st Annual International Conference of the IEEE Engineering in Medicine & Biology Society (EMBC).

TUT 13: Deep Learning für das Computersehen in der Medizin – ein Hands-on Kurs (ca. 4 Std, Organisatoren: C. Friedrich, J. Rückert)

Kurzbeschreibung
In dem Hands-on Kurs werden die Grundlagen des Deep Learnings für das Computersehen in der Medizin zunächst in seminaristischer Form erklärt (ca. eine Stunde). Im Anschluss wird an lokalen Rechnern die Lösung für einen medizinischen Datensatz zur Körperregionserkennung aus radiologischen Bildern browserbasiert von den Teilnehmern erarbeitet. Hierzu wird auch mit Jupyter-Notebooks Software in Python ausgeführt, tiefgehende Programmierkenntnisse werden nicht erwartet, aber die Aufgeschlossenheit einfache Code Änderungen durchzuführen. Die Teilnehmer werden bei der Arbeit von erfahrenen Tutoren unterstützt.

TUT 14: Gemeinsame Datennutzung – Datenschutzrechtliche Rahmenbedingungen (ca. 2,5 Std., Organisator: B. Schütze)

Kurzbeschreibung
Daten sind die Grundlage jeder medizinischen Forschung. Dabei sind bei einer gemeinsamen Verarbeitung einige Punkte zu beachten: arbeitet man gemeinsam im datenschutzrechtlichen Sinne oder nicht? Und wie kommt man eigentlich an Daten heran? Kaufen? Oder Sekundärnutzung?
Im Seminar wird u.a. anderem eingegangen auf:

  • Hinweise bzgl. des Nachweises des „erheblich“ überwiegendes Forschungsinteresses
  • „Dateneigentum“ vs. „Datenhandel“
  • Einführung in das Thema „Gemeinsame Verarbeitung“ nach Art. 26 DS-GVO
  • Vertragsgestaltung inkl. Vorstellung des GMDS-Mustervertragstext für die gemeinsame Verarbeitung

Mittwoch, 11.09:

TUT 15: Digital Health-Terminologien: LOINC, SNOMED, ORPHANET und OMICS (HPO, HGVS und Co) (ca. 4 Std., Organisator: AG SIE)

Kurzbeschreibung
Die gmds AG SIE veranstaltet diesen Workshop, um die Anwendungsgebiete der unterschiedlichen internationalen Terminologien und ihre konkreten Anwendungszwecke aufzuzeigen. Im Rahmen des Tutorials wird das Team um Frau Prof. Thun, Leiterin der AG SIE, die Semantikstandards LOINC, SNOMED CT und ORPHANET vorstellen und praktische Übungen durchführen. Außerdem werden Terminologien zum Themenbereich „OMICS“, z.B. HPO und HGVS vorgestellt.