361 – Epidemiologische Modellierung (Teil 1)
Rate/Vote |
Gast: Dirk Brockmann Host: Markus Völter Shownoter: Markus Völter
Ich habe mich mit Professor Dirk Brockmann über die mathematische und computergestützte Modellierung der Ausbreitung von Infektionskrankheiten unterhalten. Wir sprechen über Modellierungsansätze wie Differentialgleichungen und Agentenbasierte Simulationen, die Herausforderungen durch Rückkopplungen und verschiedene Ansätze wie man die Vertrauenswürdigkeit von Modellen bewerten kann. Wir planen in naher Zukunft einen zweiten Teil und freuen uns auf Eure Fragen auf Basis dieser Episode.
Dirk Brockmann | Dirk Brockmann an der HU | Dirk Brockmann's Gruppe am RKI | Complexity Explorables | Statistische Physik | Physik dynamischer Systeme | Populationsdynamik | Mobilitätsnetzwerke | Mobilfunkdaten | Rückkopplung | Differentialgleichungen | Monte-Carlo Simulation | Stochastische DGL | Bob May: "Uses and Abuses of Mathematics in Biology" | Ideales Gas | Emergenz | Edsger Dijkstra | Ameisenverhalten | Schwarmverhalten | Reduktionismus | Sebastian Funk, Vincent Jansen: "Ebola: the power of behaviour change" | Gittermodell | R Wert | Selbstorganisierte Kritikalität | Szenarien vs. Vorhersage | Autokorrelationszeit | Sensitivitätsanalyse | Strukturelle Stabilität | Theorie dynamischer Systeme | Unabhängige Validierungen | Kontaktnetzwerke | Power Law | Superspreader
Sehr schöne und gut verständliche Folge mit einem sehr angenehmen Experten als Gast. Das mal vorab. Natürlich für den eingefleischten Hörer viel zu kurz, aber das Problem ist ja praktisch schon gelöst.
Mich würde interessieren, wie Prof. Brockmann und sein Team mit der sowohl zeitlich, als auch lokal, sehr unterschiedlichen Datenlage umgehen, um ihre Modelle zu bauen und auch zu validieren. In dem jetzigen Fall ist es wohl offensichtlich, dass gerade zu Beginn eine erhebliche Dunkelziffer vorlag. Gerade in massiv betroffenen Gebieten wie Italien. Dazu kommt, dass man aus vielen Regionen wahrscheinlich nicht die verlässlichsten Zahlen bekommt. Nicht nur in der jetzigen Pandemie.
Geben Modelle es her vielleicht sogar Aussagen zu treffen, wie tatsächliche Werte aussehen könnten? Er hatte beispielsweise angesprochen, dass eine Auffälligkeit wäre, dass vielerorts die zweite Welle größer ausfällt, als die erste. Ist dies aber nicht im hohen Maße der gestiegenen Testkapazität geschuldet?
Ich freue mich auf jeden Fall schon auf Teil 2.
Beste Grüße
Markus
Wieder einmal eine sehr schöne Folge. Ich habe schon viel – auch qualitativ hochwertiges über Covid gehört, aber wenig Substanzielles über die zugehörige Epidemiologie. Das Auftreten in „Wellen“ wird immer als fast gesetzmäßig dargestellt, ohne eine Erklärung dafür abzugeben.
Eine Erklärung ist ja naheliegend und wohl auch schon angesprochen. Zunächst verursacht die Pandemie mit steigenden Zahlen Angst, die Menschen werden vorsichtiger, die Regierungen erlassen Regelungen, diese Rückkopplung bringt R unter 1 und die Fallzahlen sinken. Obwohl Vorsicht weiter angebracht wäre, werden die Menschen zunehmend nachlässiger und das Virus bekommt seine zweite Chance. Die frühen Anzeichen des Anstieges (R>1) werden nicht ausreichend ernst genommen (siehe unsere Landesfürsten im Herbst) und nun kommt die zweite Welle.
Meine Frage: ist es bekannt, ob dies der entscheidende/einzige Mechanismus zur „Wellenbildung“ ist? Sind andere in der Diskussion bzw. gibt es Ideen wie man sie finden könnte?
@ Markus: sicher führt gestiegene Testkapazität zu höheren Fallzahlen. Das kann meines Erachtens aber nicht den Unterschied zwischen erster und zweiter Welle in Deutschland erklären. Siehe Auslastung von Intensivbetten und die Übersterblichkeit Ende letzten Jahres. An diesen Größen kann man die Modelle vielleicht auch kalibrieren?
Danke Bernd! Hatte ich gesagt dass die höheren Fallzahlen *nur* durch mehr Testen zu erklären sind? Wenn ja, dann ist das natürlich Unsinn und ich habe mich unpräzise ausgedrückt.
Hallo zusammen. Da habe wohl eher ich mich falsch ausgedrückt. Die Intensivbetten Auslastung und Übersterblichkeit zeigen natürlich, dass es nicht nur an der Testkapazität liegt. Genau die von Bernd angesprochene Kalibrierung finde ich aber eben spannend. Mich würde es interessieren, wie mit diesen Diskrepanzen umgegangen wird bei der Modellierung. Die Daten und Fakten, die zum erstellen der Modelle zur Verfügung stehen, ändern sich ja mit der Zeit. Und das ja nicht nur beim aktuellen Beispiel. Natürlich laufen Verbreitung und Clusterbildung unabhängig davon ab, wie viele Daten wir haben, aber ich stelle es mir außenstehend schon so vor, dass eine gute Datenlage eine Modellierung deutlich verbessert. Und die regional und zeitlich extrem unterschiedliche Qualität der Daten scheint es mir sehr viel schwieriger zu machen, die Korrektheit des eigenen Modells zu überprüfen. Deshalb wären meine zwei Fragen: Wie geht man mit diesen unterschiedlichen Datenqualitäten um? Gibt man ihnen unterschiedliche Gewichtung, oder gibt es gar Methoden diese gänzlich unnötig zu machen? Und sind die Modelle inzwischen so ausgereift, dass man mit ihnen solche Dinge wie Dunkelziffern zu Beginn “zurückrechnen” /abschätzen könnte. Mir geht’s hier überhaupt nicht um konkrete Zahlen, die ich hören möchte. Darum soll’s in den Folgen ja auch nicht gehen. Es ist eher die Frage wie weit wir in dem Thema schon sind. Geht es noch gänzlich darum überhaupt erstmal zu verstehen, wie eine solche Pandemie abläuft, oder sind wir schon in Bereichen mit usecase wie zb Abschätzung von tatsächlicher Verbreitung, Prognosen von Verbreitungsgeschwindigkeit usw..
Liebe Grüße
Markus
Wenn es um Rückkopplungen geht müsste man auch betrachten, wie stark diese Rückkopplungen sind, um einen Einfluss zu haben.
In einer archaischen Gesellschaft, ohne elektronische Massenmedien, sind diese Rückkopplungen vermutlich eher langsam (obwohl: Rauchzeichen-Kommunikation könnte auch große Strecken in kurzer Zeit überwinden – ist also wohl schneller, als das RKI an seine Zahlen kommt, hehehe).
Wie ist der Einfluss von Kommuniationsmedien als Rückkopplungskanal auf die Pandemie zu bewerten? Wird dies in den Modellen berücksichtigt, oder ist dies unbeachtet und daher implizit unbewusst als KOnstante angenommen? Ein Vergleich zur Spanischen Grippe und den Kommuniaktionsmöglichkeiten damals verglichen mit heute (Internet etc.) könnte intereessant sein. Ich gehe mal davon aus, daß schnellere und intensivere Kommikation als Rückkopplungskanal auch zu schnelleren und daher ggf. erratischeren Verläufen der Pandemiewellen führt.
Eine Dritte/Vierte/… Welle gab es AFAIK bei der Spaniscdhen Grippe nicht. Ist dies modernen Kommunikationsmedien geschuldet?
Ist in archaischen Gesellschaften eher mit einer einzigen Welle zu rechnen? oder mit flacheren Wellen?
Hallo Markus,
sehr gute Folge von dir und Dirk Brockmann. Bitte mehr!
Ich hoffe, dass es noch nicht zu spät ist ein paar Fragen zu stellen:
1.) Der Aspekt , dass der R-Wert immer um 1.0 pendelt, weil die Bevölkerung sich zu früh in Sicherheit wiegt, ist plausibel und nachvollziehbar.
1.1) Warum wird das nicht mehr in den Medien kommuniziert? Nach dieser Erkenntnis liegt es viel an unserem eigenen menschlichen Unvermögen die Natur eines exponentiellen Wachstums (oder Abfalls) zu begreifen sowie den Einfluss unseres Verhaltens auf deren Parameter.
1.2) Wäre es nicht besser, dass die Wissenschaft einen R-Wert von z. B. 0.8 als Zielmarke definiert (+/- 0.2 für Schwanklungen angenommen). (Damit wären z. B. auch die Effekte kompensiert, dass der R-Wert unter 1.0 liegen kann und die Fallzahlen trotzdem steigen.)
1.3) Kann man aus den Modellen abschätzen, was die einzelnen Beiträge (z. B. zum R-Wert) von den verschieden “Gesellschaftsbestandteilen” sind? Z. B. Schulen auf = +0.15 zum R-Wert, Restaurants zu = -0.2 im R-Wert, Frisöre auf = +0.05 zum R-Wert usw.
Wäre das nicht geeignet, der Bevölkerung anschaulich den Spielraum für Maßnahmen zu erläutern?
2.) Der R-Wert alleine ist anscheinend ein schlechtes Maß den Zustand und die Dynamik der Pandemie zu beschreiben. Welche Größen sind sinnvoll, um das Infektionsgeschehen treffender zu beschreiben? (z. B. Steigung der Infektionszahlen, Dispersion des R-Werts usw.)
3.) Ein Faktor mit großem Einfluss scheint die Verteilung von bestimmten Parametern zu sein (Stichwort: Superspreader).
3.1) Weiß man mittlerweile wie solche Superspreading-Events gestaltet sind? Was würde das in Bezug auf Maßnahmen bedeuten, wenn man z. B. versuchen wollte diese “Spitzenwerte” abzuschneiden?
3.2) Welchen Einfluss haben die unterschiedlichen Faktoren wie: die lokale Bevölkerungsdichte, die Wohnsituation, die Familiengröße, der soziale Status, das Wetter, …?
4.) Eine ideale Handy-App vorausgesetzt, was für Größen würde Dirk Brockmann von dieser App erwarten? Und was könnte er daraus machen?
Eine Woche am Supercomputer vs. 1 Monat am PC? Ich bin ja kein Experte, aber das muß entweder ein sehr schwachbrüstiger Supercomputer, oder ein Monster von PC sein. (oder ein single-Threaded Code?)
Ernsthaft, die Relation passt doch nicht, obwohl er beim zweiten mal extra nachgeschaut und die Zahlen bestätigt hat. Wo liegt mein Denkfehler?
Ich kann mich noch gut erinnern, wie ich diese Folge während einer Schneewanderung im Februar 2021 gehört habe und dann habe ich beinahe ungeduldig auf den 2. Teil gewartet (den es leider nicht gegeben hat). Jetzt gerade habe ich das „nichtwissenschaftliche“ Gespräch mit Dirk Brockmann bei Elementarfragen gehört und ich muss leider sagen, dass Nicolas Semak aus einem ähnlich langen Gespräch mit Dirk Brockmann irgendwie mehr rausgeholt hat. Vielleicht lag es am größeren zeitlichen Abstand zur akuten Pandemielage oder am weniger spezifischen Ansatz für das Gespräch. Jedenfalls hatte ich nach dieser Folge „Elementarfragen“ den Eindruck, dass eine Folge 2 hier mit Dirk Brockmann auf dem regulären Omegatau-Niveau auch ohne den akuten Pandemiebezug wirklich noch spannend sein könnte.
Dass der zweite Teil nicht zustande kam lag nicht an uns ….