Artikelaktionen

Sie sind hier: Startseite Online-Magazin vernetzen & gestalten 30 Jahre „Datenanalyse und …

30 Jahre „Datenanalyse und Modellbildung“ in Freiburg

Aus einem fächerübergreifenden Seminar ist ein Wissenschaftliches Zentrum der Albert-Ludwigs-Universität hervorgegangen

Freiburg, 27.10.2017

30 Jahre „Datenanalyse und Modellbildung“ in Freiburg

Foto: Sandra Meyndt

Mehr Informationen aus Daten gewinnen, komplexe Systeme mit mathematischen Modellen besser beschreiben: Seit 30 Jahren kommen an der Universität Freiburg Wissenschaftlerinnen und Wissenschaftler aus unterschiedlichen Disziplinen zusammen, um sich über methodische Fragen quantitativer Forschung auszutauschen – zunächst in einem Seminar, seit 1994 am „Freiburger Zentrum für Datenanalyse und Modellbildung“. Die Jubiläumsfeier findet am Freitag, 3. November 2017 statt.

Das „Freiburger Zentrum für Datenanalyse und Modellbildung“ ist in Räumen des Mathematischen Instituts der Universität Freiburg beheimatet.
Foto: Sandra Meyndt

 Die Grundlage für Big Data – das Management und die Analyse großer Datenmengen – bilden die mathematische Statistik sowie die Stochastik, die sich mit Zufall und Wahrscheinlichkeiten beschäftigt. Bei ihrem Einsatz ist Sorgfalt geboten, besonders in der Wissenschaft: „Wenn Forscherinnen und Forscher Programmpakete auf ihre Daten loslassen, um diese mit statistischen Methoden auszuwerten, sollten sie wissen, was diese Programme können und was nicht. Zudem gibt es viele Beispiele für komplexe Systeme, die man erst mit stochastischen Modellen angemessen beschreiben kann – vom Fließverhalten bestimmter Materialien bis zum Geschehen auf dem Finanzmarkt“, sagt Josef Honerkamp. Vor 30 Jahren brachte der mittlerweile emeritierte Physikprofessor der Universität Freiburg erstmals Kolleginnen und Kollegen aus Mathematik, Physik, Chemie, Medizin sowie Wirtschafts- und Forstwissenschaften zusammen, damit sie sich in einem gemeinsamen Seminar mit solchen methodischen Fragen befassen. Es war die Geburtsstunde des „Freiburger Zentrums für Datenanalyse und Modellbildung“ (FDM), das schließlich 1994 als Wissenschaftliches Zentrum der Albert-Ludwigs-Universität gegründet wurde.

6f374d5ed5d84ea868de4cc1d61d8ac9

 VIDEO: Josef Honerkamp zu Datenanalyse und Modellbildung


In den Anfangsjahren war dieser fächerübergreifende Ansatz neu, und die Vorteile für alle Beteiligten wurden schnell sichtbar: Die Mathematik konnte durch neue Fragestellungen aus unterschiedlichen Anwendungsbereichen ihre Methoden verfeinern, die anderen Disziplinen erzielten Fortschritte, weil sie mithilfe der Statistik und Stochastik mehr Informationen aus ihren Daten ziehen und komplexe Systeme mit mathematischen Modellen besser beschreiben konnten. Inzwischen habe sich viel getan, sagt der Stochastiker Prof. Dr. Peter Pfaffelhuber, Direktor des FDM: „Seit der Gründung unseres Zentrums haben wir eine Quantifizierung in vielen Anwendungsbereichen erlebt, und interdisziplinäre Ansätze sind aus der Wissenschaftslandschaft nicht mehr wegzudenken.“ Vor allem im vergangenen Jahrzehnt habe sich das FDM dynamisch entwickelt, nicht zuletzt dank Berufungen quantitativ arbeitender Wissenschaftler an unterschiedliche Fakultäten.

Fünf Themenfelder im Fokus

Im Mittelpunkt der Arbeit am FDM stehen derzeit fünf Themenfelder. Die Klinische Epidemiologie befasst sich mit der Verbreitung und dem Verlauf von Krankheiten und deren verursachenden Faktoren in der Bevölkerung, die Finanzmarktforschung widmet sich der Modellierung ökonomischer Chancen und Risiken. Die Populationsbiologie untersucht die Struktur und Entwicklung tierischer und pflanzlicher Fortpflanzungsgemeinschaften, und die Systembiologie arbeitet an der dynamischen Modellierung zellulärer Prozesse. Die Statistik stochastischer Prozesse schließlich untersucht die  mathematischen Grundlagen der im Zentrum angesiedelten Anwendungen. „Gerade weil die Anwendungsbereiche so verschieden sind, ist es besonders wichtig, einen gemeinsamen methodischen Kern zu pflegen“, betont Pfaffelhuber. „Die ursprüngliche Vision, dass ein Platz des Austauschs zu den Themen Datenanalyse und Modellbildung viele Wissenschaftler anzieht, hat sich in den vergangenen 30 Jahren bestätigt.“

 ww.fdm.uni-freiburg.de

Das Grippemedikament Tamiflu hat einen positiven Effekt – die Überlebenschancen erhöht es aber nicht.
Foto: naihoet/Fotolia

 Fallbeispiel 1: Klinische Epidemiologie – wie das Grippemittel Tamiflu wirkt

 Viele Staaten lagern das Grippemedikament Tamiflu ein, um sich auf eine mögliche Pandemie vorzubereiten – wie gut es jedoch wirkt, ist umstritten. Eine von der Pharmaindustrie in Auftrag gegebene Beobachtungsstudie verglich den Krankheitsverlauf von Patientinnen und Patienten mit beziehungsweise ohne Behandlung mit Tamiflu und kam zum Ergebnis, dass das Medikament die Überlebenschancen erhöht. Um die Studie überprüfen zu können, erhielt ein Team um Prof. Dr. Martin Wolkewitz vom Institut für Medizinische Biometrie und Statistik der Universität Freiburg einen Teil der Daten. „Wir konnten aufdecken, dass statistische Fehler zu verzerrten Ergebnissen geführt haben – verursacht beispielsweise durch unrealistische Modellannahmen“, sagt Wolkewitz. „Nach unseren Resultaten hat Tamiflu zwar einen positiven Effekt: Wer damit behandelt wurde, konnte das Krankenhaus im Durchschnitt schneller verlassen. Eine Auswirkung auf die Sterblichkeit konnten wir aber nicht bestätigen.“ Den Autorinnen und Autoren der Studie seien die Fehler aber keineswegs bewusst gewesen: Viele Forscher wissen schlichtweg nicht um die Feinheiten statistischer Modelle, berichtet Wolkewitz. „Gerade bei emotional aufgeladenen Themen wie etwa in der Medikamentenforschung können wir mit den rationalen Argumenten der Statistik dabei helfen, Aufklärungsarbeit zu leisten.“

 Wie hoch das Risiko von Kapitalanlagen ist, wollen Banken möglichst gut abschätzen.
Foto: Deutsche Börse AG

Fallbeispiel 2: Finanzmarktforschung – wie Banken Risiken besser einschätzen können

Banken müssen Eigenkapital als Sicherheit hinterlegen, um für mögliche Verluste gerüstet zu sein. Wie hoch diese Sicherheit sein muss, hängt davon ab, wie hoch das Risiko der Kapitalanlagen ist. „Ziel einer Bank ist es, die angemessene Kapitalmenge möglichst gut zu schätzen – nicht zu viel und nicht zu wenig“, erklärt der Finanzmathematiker Prof. Dr. Thorsten Schmidt aus der Abteilung für Mathematische Stochastik der Universität Freiburg. Dafür wird das gängige Risikomaß „Value at Risk“ (VaR) herangezogen: Es gibt den Betrag an, den die möglichen Verluste einer Bank mit einer Wahrscheinlichkeit von beispielsweise 95 oder 99 Prozent nicht überschreiten. Die Banken versuchen dabei, auf der Basis historischer Daten zu den Kursverläufen ihrer Kapitalanlagen abzuschätzen, welchen Schwankungen diese in der Zukunft unterworfen sein werden. „Allerdings zeigt sich bei den bestehenden Verfahren, dass die tatsächliche Verlustrate höher war als erwartet“, sagt Schmidt. Gemeinsam mit Kolleginnen und Kollegen will der Finanzmathematiker Abhilfe schaffen: „Wir arbeiten daran, das Verfahren so zu verfeinern, dass Banken die Risiken ihrer Kapitalanlagen besser einschätzen können – und möchten damit einen Beitrag dazu leisten, die Bankenwelt etwas sicherer zu machen.“

Nicolas Scherger

 

Jubiläumsfeier

Die Feier zum 30-jährigen Bestehen des Seminars findet am Freitag, 3. November 2017, von 13:30 bis 17:30 Uhr im Mathematischen Institut, Eckerstraße 1, Raum 404 statt. Nach Redebeiträgen von Rektor Prof. Dr. Hans-Jochen Schiewer und Prof. Dr. Josef Honerkamp folgen Fachvorträge von Prof. Dr. Leo Held, Biostatistiker der Universität Zürich/Schweiz, Prof. Dr. Rainer Dahlhaus, Mathematiker der Universität Heidelberg, und Prof. Dr. Josef Teichmann, Finanzmathematiker der Eidgenössischen Technischen Hochschule Zürich/Schweiz. Alle Interessierten sind herzlich eingeladen. Der Eintritt ist kostenlos, eine Anmeldung ist nicht erforderlich.