361 – Epidemiologische Modellierung (Teil 1)
Rate/Vote |
Gast: Dirk Brockmann Host: Markus Völter Shownoter: Markus Völter
Ich habe mich mit Professor Dirk Brockmann über die mathematische und computergestützte Modellierung der Ausbreitung von Infektionskrankheiten unterhalten. Wir sprechen über Modellierungsansätze wie Differentialgleichungen und Agentenbasierte Simulationen, die Herausforderungen durch Rückkopplungen und verschiedene Ansätze wie man die Vertrauenswürdigkeit von Modellen bewerten kann. Wir planen in naher Zukunft einen zweiten Teil und freuen uns auf Eure Fragen auf Basis dieser Episode.
Dirk Brockmann | Dirk Brockmann an der HU | Dirk Brockmann's Gruppe am RKI | Complexity Explorables | Statistische Physik | Physik dynamischer Systeme | Populationsdynamik | Mobilitätsnetzwerke | Mobilfunkdaten | Rückkopplung | Differentialgleichungen | Monte-Carlo Simulation | Stochastische DGL | Bob May: "Uses and Abuses of Mathematics in Biology" | Ideales Gas | Emergenz | Edsger Dijkstra | Ameisenverhalten | Schwarmverhalten | Reduktionismus | Sebastian Funk, Vincent Jansen: "Ebola: the power of behaviour change" | Gittermodell | R Wert | Selbstorganisierte Kritikalität | Szenarien vs. Vorhersage | Autokorrelationszeit | Sensitivitätsanalyse | Strukturelle Stabilität | Theorie dynamischer Systeme | Unabhängige Validierungen | Kontaktnetzwerke | Power Law | Superspreader
Sehr schöne und gut verständliche Folge mit einem sehr angenehmen Experten als Gast. Das mal vorab. Natürlich für den eingefleischten Hörer viel zu kurz, aber das Problem ist ja praktisch schon gelöst.
Mich würde interessieren, wie Prof. Brockmann und sein Team mit der sowohl zeitlich, als auch lokal, sehr unterschiedlichen Datenlage umgehen, um ihre Modelle zu bauen und auch zu validieren. In dem jetzigen Fall ist es wohl offensichtlich, dass gerade zu Beginn eine erhebliche Dunkelziffer vorlag. Gerade in massiv betroffenen Gebieten wie Italien. Dazu kommt, dass man aus vielen Regionen wahrscheinlich nicht die verlässlichsten Zahlen bekommt. Nicht nur in der jetzigen Pandemie.
Geben Modelle es her vielleicht sogar Aussagen zu treffen, wie tatsächliche Werte aussehen könnten? Er hatte beispielsweise angesprochen, dass eine Auffälligkeit wäre, dass vielerorts die zweite Welle größer ausfällt, als die erste. Ist dies aber nicht im hohen Maße der gestiegenen Testkapazität geschuldet?
Ich freue mich auf jeden Fall schon auf Teil 2.
Beste Grüße
Markus
Wieder einmal eine sehr schöne Folge. Ich habe schon viel – auch qualitativ hochwertiges über Covid gehört, aber wenig Substanzielles über die zugehörige Epidemiologie. Das Auftreten in „Wellen“ wird immer als fast gesetzmäßig dargestellt, ohne eine Erklärung dafür abzugeben.
Eine Erklärung ist ja naheliegend und wohl auch schon angesprochen. Zunächst verursacht die Pandemie mit steigenden Zahlen Angst, die Menschen werden vorsichtiger, die Regierungen erlassen Regelungen, diese Rückkopplung bringt R unter 1 und die Fallzahlen sinken. Obwohl Vorsicht weiter angebracht wäre, werden die Menschen zunehmend nachlässiger und das Virus bekommt seine zweite Chance. Die frühen Anzeichen des Anstieges (R>1) werden nicht ausreichend ernst genommen (siehe unsere Landesfürsten im Herbst) und nun kommt die zweite Welle.
Meine Frage: ist es bekannt, ob dies der entscheidende/einzige Mechanismus zur „Wellenbildung“ ist? Sind andere in der Diskussion bzw. gibt es Ideen wie man sie finden könnte?
@ Markus: sicher führt gestiegene Testkapazität zu höheren Fallzahlen. Das kann meines Erachtens aber nicht den Unterschied zwischen erster und zweiter Welle in Deutschland erklären. Siehe Auslastung von Intensivbetten und die Übersterblichkeit Ende letzten Jahres. An diesen Größen kann man die Modelle vielleicht auch kalibrieren?
Danke Bernd! Hatte ich gesagt dass die höheren Fallzahlen *nur* durch mehr Testen zu erklären sind? Wenn ja, dann ist das natürlich Unsinn und ich habe mich unpräzise ausgedrückt.
Hallo zusammen. Da habe wohl eher ich mich falsch ausgedrückt. Die Intensivbetten Auslastung und Übersterblichkeit zeigen natürlich, dass es nicht nur an der Testkapazität liegt. Genau die von Bernd angesprochene Kalibrierung finde ich aber eben spannend. Mich würde es interessieren, wie mit diesen Diskrepanzen umgegangen wird bei der Modellierung. Die Daten und Fakten, die zum erstellen der Modelle zur Verfügung stehen, ändern sich ja mit der Zeit. Und das ja nicht nur beim aktuellen Beispiel. Natürlich laufen Verbreitung und Clusterbildung unabhängig davon ab, wie viele Daten wir haben, aber ich stelle es mir außenstehend schon so vor, dass eine gute Datenlage eine Modellierung deutlich verbessert. Und die regional und zeitlich extrem unterschiedliche Qualität der Daten scheint es mir sehr viel schwieriger zu machen, die Korrektheit des eigenen Modells zu überprüfen. Deshalb wären meine zwei Fragen: Wie geht man mit diesen unterschiedlichen Datenqualitäten um? Gibt man ihnen unterschiedliche Gewichtung, oder gibt es gar Methoden diese gänzlich unnötig zu machen? Und sind die Modelle inzwischen so ausgereift, dass man mit ihnen solche Dinge wie Dunkelziffern zu Beginn “zurückrechnen” /abschätzen könnte. Mir geht’s hier überhaupt nicht um konkrete Zahlen, die ich hören möchte. Darum soll’s in den Folgen ja auch nicht gehen. Es ist eher die Frage wie weit wir in dem Thema schon sind. Geht es noch gänzlich darum überhaupt erstmal zu verstehen, wie eine solche Pandemie abläuft, oder sind wir schon in Bereichen mit usecase wie zb Abschätzung von tatsächlicher Verbreitung, Prognosen von Verbreitungsgeschwindigkeit usw..
Liebe Grüße
Markus
Wenn es um Rückkopplungen geht müsste man auch betrachten, wie stark diese Rückkopplungen sind, um einen Einfluss zu haben.
In einer archaischen Gesellschaft, ohne elektronische Massenmedien, sind diese Rückkopplungen vermutlich eher langsam (obwohl: Rauchzeichen-Kommunikation könnte auch große Strecken in kurzer Zeit überwinden – ist also wohl schneller, als das RKI an seine Zahlen kommt, hehehe).
Wie ist der Einfluss von Kommuniationsmedien als Rückkopplungskanal auf die Pandemie zu bewerten? Wird dies in den Modellen berücksichtigt, oder ist dies unbeachtet und daher implizit unbewusst als KOnstante angenommen? Ein Vergleich zur Spanischen Grippe und den Kommuniaktionsmöglichkeiten damals verglichen mit heute (Internet etc.) könnte intereessant sein. Ich gehe mal davon aus, daß schnellere und intensivere Kommikation als Rückkopplungskanal auch zu schnelleren und daher ggf. erratischeren Verläufen der Pandemiewellen führt.
Eine Dritte/Vierte/… Welle gab es AFAIK bei der Spaniscdhen Grippe nicht. Ist dies modernen Kommunikationsmedien geschuldet?
Ist in archaischen Gesellschaften eher mit einer einzigen Welle zu rechnen? oder mit flacheren Wellen?