Eingeschränkte Grundrechte: Unsaubere Meldeinzidenz streng nach Vorschrift
Seit knapp zwei Jahren bestimmt die Corona-Pandemie unser Leben. Allerdings sind Datenlage und Pandemiemanagement schlecht. Was wäre die Lösung?

Deutschland war bisher noch kein Vorreiter in Europa für öffentliche Daten und Digitalisierung. Daten und damit evidenzbasierte Entscheidungen waren und sind eher die Ausnahme. Zwar gibt es an vielen Stellen viele Informationen, diese werden aber selten in geeigneter Form aggregiert oder gar zusammenhängend als Entscheidungsgrundlage genutzt. Juristen prägen die öffentlichen Verwaltungen und Entscheidungen werden strikt nach Vorschrift und nicht auf Basis von Daten getroffen. Das alles mag in normalen Zeiten ausreichen, es rächt sich allerdings in der Corona-Pandemie. Der bisherige politische und verwaltungstechnische Umgang mit Corona offenbart haarsträubende Defizite im öffentlichen Verständnis von Daten, Statistik und kausalen Zusammenhängen.
Der Blick auf die Inzidenz reicht nicht aus
Nach einer kurzen Anfangsphase der Pandemie steht die Inzidenz wie keine andere Zahl für Corona. Ermittelt wird sie vom RKI auf Basis der gemeldeten Neuinfektionen (positive PCR-Tests) pro Landkreis pro 100.000 Einwohner innerhalb der letzten sieben Tage. Durch die Skalierung auf 100.000 Einwohner wird die Zahl vergleichbar, allerdings entstehen auch Kommazahlen, die den Eindruck einer exakten Messgröße suggerieren. Dies ist allerdings nicht der Fall. Zum einen hängt die Inzidenz an den Meldefällen. Meldeverzug und Überlastung (Wochenende) sind ausreichend diskutiert und können die Inzidenz sprunghaft ansteigen oder fallen lassen. Der Zeitraum von einer Woche ist geeignet, zumindest die Wochenenden abzufangen.
Grundrechtseinschränkungen allerdings ausschließlich auf diese Zahl zu stützen ist diskussionswürdig. Zudem – und das ist der Hauptkritikpunkt – erfasst die Inzidenz lediglich die nach Infektionsschutzgesetz gemeldeten Covid-Fälle. Die Menge der gefunden Fälle hängt aber neben der Prävalenz in der Bevölkerung auch von den aktuellen Testkriterien ab. Ist es schwerer, einen Test zu bekommen, so werden tendenziell weniger Fälle gefunden, als wenn es leichter ist, einen Test zu bekommen. Mit der Einführung der Schnelltests und der Testverpflichtung werden zudem viele Fälle zunächst per Schnelltest gefunden, die dann im PCR bestätigt werden. Die PCR-Testung ist folglich über die Zeit genauer geworden, da insgesamt deutlich mehr Tests durchgeführt werden. Das macht es unmöglich die Inzidenzzahlen und damit die gemeldeten Neuinfektionen über Zeit zu vergleichen. Wir wissen daher nicht, ob die zweite Welle allein anhand der Infektionen schwerer oder milder war als die aktuelle vierte Welle.
Die Corona-Testergebnisse sind nicht miteinander vergleichbar
Es ist jetzt deutlich einfacher einen Test zu bekommen, als noch letztes Jahr. Und in vielen Bereichen ist ein Test sogar vorgeschrieben, sodass auch sonst unerkannte Fälle gefunden werden. Damit die Inzidenzzahlen über Zeit vergleichbar wären, müsste die Wahrscheinlichkeit einen Test zu machen, über Zeit konstant sein. Durch die Entwicklung von Schnelltests und die permanente Änderung des Testregimes ist dies allerdings nicht gegeben. Dies führt ebenfalls dazu, dass die Inzidenz zwischen den Altersgruppen, wie das RKI sie ausweist, nicht vergleichbar ist. Während Schüler sich in der Schule regelmäßig testen müssen, gibt es in den älteren Kohorten weniger Verpflichtung zum Testen. Auch ist es plausibel anzunehmen, dass jüngere Menschen häufiger an Veranstaltungen mit Testverpflichtung teilnehmen, da sie insgesamt aktiver sind.
Gleiches gilt für die Inzidenz zwischen Geimpften und Ungeimpften. Zwar ist es plausibel anzunehmen, dass Geimpfte sich weniger häufig mit Covid infizieren, allerdings ist auch hier die Vergleichbarkeit der Daten nur eingeschränkt möglich. Durch die Einführung der sogenannten 3G-Regelung müssen sich Ungeimpfte deutlich häufiger testen lassen, als Geimpfte. Es kann allerdings nicht ausgeschlossen werden, dass die Inzidenz zwischen den beiden Gruppen möglicherweise in größerem Maße aufgrund der unterschiedlichen Testhäufigkeit höher ist.
In der öffentlichen Darstellung wird vermittelt, dass die Inzidenz eine präzise Messgröße für die aktuelle Schwere der Pandemie sei. Alle Zeitungen drucken die Inzidenz ab, in den Nachrichten werden sie täglich genannt. Dabei wird nicht genug auf die methodischen Grenzen der Inzidenz eingegangen und der Eindruck erweckt, die Inzidenz sei über Zeit und innerhalb der Bevölkerung vergleichbar. Die journalistische Berichterstattung sollte diese Limitationen berücksichtigen und transparent machen. Dies gilt insbesondere dann, wenn Grundrechtseinschränkungen anhand der Inzidenz begründet werden.
Die Lösung: Regelmäßige Tests unter repräsentativ ausgewählten Bürgern
Der unsauberen Meldeinzidenz streng nach Vorschrift könnte man sehr einfach eine repräsentative Panel-Erhebung entgegensetzen. In Großbritannien ist dies bereits gängige Praxis und auch in Deutschland problemlos umsetzbar. Dabei würde ein repräsentativer Querschnitt der Bevölkerung in regelmäßigem und gleichbleibendem Abstand getestet. Damit bleibt die Testwahrscheinlichkeit dieses Querschnitts über Zeit konstant (100 %) und die Zahlen sind sowohl über Zeit als auch innerhalb des Querschnitts vergleichbar. So könnten tatsächlich verlässliche und vergleichbare Infektionswerte ermittelt werden, die Maßnahmen zielgerichtet steuern könnten. Ebenfalls könnte dadurch die drängende Frage nach dem Anteil bestimmter Teile der Bevölkerung am Infektionsgeschehen geklärt werden. Es ist für mich nicht erklärbar, warum das RKI eine solche Querschnittserhebung nicht durchführt, wenn es für die Grippe ein solches System (Sentinel-Praxen) bereits gibt.
Hier beißt sich wohl die preußische Fokussierung auf juristisch korrekte Zahlen mit methodisch sinnvollen Zahlen. Ein Armutszeugnis, dass dies von keiner Staatskanzlei oder dem Gesundheitsministerium gefordert wurde.
Zur Beurteilung der Maßnahmen müsste man zwei identische Staaten vergleichen
Die Beurteilung und Bewertung der ergriffenen nicht-pharmazeutischen Interventionen (NPI) zur Eindämmung der Corona-Pandemie ist komplex und kompliziert. Zentral ist die Frage nach der Wirksamkeit der Maßnahmen und der tatsächlichen „natürlichen“ Schwere der Pandemie, wenn keine Maßnahmen ergriffen worden wären. Für den wissenschaftlichen Idealfall müsste man zwei identische Staaten mit unterschiedlichen Maßnahmen (keine Maßnahmen, harte Prävention) vergleichen und so die Wirksamkeit der Maßnahmen beurteilen. Dies ist praktisch und ethisch nicht möglich, daher bleibt in der Sozialwissenschaft nur der Vergleich zwischen Ländern oder der Vergleich mit Modellen wie sich die Pandemie ohne Maßnahmen entwickelt hätte.
Die bisherigen Corona-Wellen verliefen nach einem recht ähnlichen Muster: ein erster Anstieg der Fallzahlen wird begleitet von Modellrechnungen, die einen exponentiellen Anstieg der Fallzahlen für die nahe Zukunft prognostizieren begleitet mit Mahnungen von überlasteten Krankenhäusern und vielen Toten. Daraufhin ergreift die Politik Maßnahmen, die Welle bricht an einem bestimmten Zeitpunkt und die Zahlen sinken. Gegebenenfalls steigen die Zahlen danach wieder, aber als alleinige Begründung für das Steigen oder Sinken der Zahlen wird die Verhaltensänderung der Bevölkerung angeführt (vernünftig vs. unvernünftig). Ein Abflachen der Welle vor Beschluss der Maßnahmen, wie auch eine verzögerte Wirkung derselben wird entweder durch die höhere Sensibilität der Bevölkerung und der damit einhergehenden früheren Selbstbeschränkung oder mit regelbrechenden Unvernünftigen (Glühweintrinkern, junge Feiernde, Schlittenfahrer, Ungeimpfte, etc.) begründet.
Corona-Maßnahmen brauchen Zustimmung
Es ist anzunehmen, dass gut informierte und coronasensible Bürger sich eher an staatliche Eindämmungsmaßnahmen halten als wenig Informierte. Staatliche Maßnahmen können nie überall mit Zwang und Gewalt durchgesetzt werden, sondern benötigen die großflächige Zustimmung und Umsetzung der Bürger. An diesem Punkt in der Pandemie muss der pauschale Verweis auf das Präventionsparadoxon und eine allgemeine Verhaltensänderung der Bevölkerung durch, vor oder trotz ergriffener Maßnahmen hinterfragt werden. Infektionswellen sind deutlich komplexer, als mit einfachen Exponentialfunktionen modelliert und auch das gesellschaftliche Leben lässt sich nicht mit wenigen Annahmen „Maßnahme XY senkt Rt um 20 Prozent“ modellieren. Sicherlich waren diese Modelle zu Beginn sinnvoll, zu diesem Zeitpunkt allerdings ist ein alleiniger Verlass auf eben diese Modelle nichts anderes als blinder Zahlenglaube ohne die zugrunde liegenden Annahmen kritisch zu hinterfragen und die Limitationen offen zu kommunizieren.
Gerade weil die Mehrheit der öffentlich kommunizierten Modelle zum einen in der Regel Schreckensszenarien prognostizieren und zum anderen als alleiniges Mittel zur Abwehr staatliche NPI-Maßnahmen beinhalten, sind qua Definition Maßnahmen zwingend erforderlich. Auch ist jedes reale Geschehen, das weniger schlimm als der Worst Case ist, ein Erfolg der NPI-Maßnahmen.
Völlig außer Acht gelassen wird dabei die Überlegung wie plausibel der Worst Case ist und mit welcher Genauigkeit überhaupt ein dynamisches Infektionsgeschehen prognostiziert werden kann, geschweige denn Eindämmungsmaßnahmen. Die vorhandenen realen Daten zeigen, dass Infektionswellen geografisch geclustert auftreten und, bisher weitestgehend unerklärt, auch regional synchron brechen. Auch sind Infektionswellen in Ländern mit harten Maßnahmen nicht generell geringer als in Ländern mit weniger harten Maßnahmen. Es gibt folglich eine ganze Reihe an zusätzlichen Faktoren, die Virusausbreitungen beeinflussen als das alleinige Verhalten der Bevölkerung, die jedoch nicht in den Modellen enthalten sind.
Die Pandemie-Modellierung ist massiv unterkomplex. Dies ist auch nicht verwunderlich, da eine Virusausbreitung und gesellschaftliches Verhalten äußerst komplex sind und von vielen Faktoren bestimmt werden, die schwer messbar sind oder gar unbekannt. Welch glückliche Fügung in der Wissenschaft, wenn einige Virologen, Physiker und Informatiker Anfang 2020 Modelle entwickeln, die all diese Fragen beantworten und modellieren können, an denen Tausende Wissenschaftler aus der Soziologie, Psychologie, Politikwissenschaft, Epidemiologie seit Jahrzehnten forschen.
Dennoch hält die deutsche Politik an Modellierungen durch den Expertenrat fest. So könnte es dazu kommen, dass durch NPI-Maßnahmen lediglich ein hypothetischer Worst Case durch wenig wirksame Maßnahmen „verhindert“ wird, der nie eingetreten wäre, allerdings mit hohen Kosten durch die NPI-Maßnahmen erkauft wird. Diese Situation ist besonders fatal, da sowohl eine Corona-Welle nicht signifikant verhindert wurde als auch massive Kosten für die Gesellschaft durch die Maßnahmen entstehen.
Die öffentliche Diskussion und die Politikgestaltung während der Corona-Pandemie in Deutschland ist leider geprägt von mangelndem Datenverständnis. Zwar entsteht der Eindruck politisches Handeln sei daten- und evidenzbasiert, doch die Erhebung und Interpretation der Zahlen offenbart große methodische Mängel. Als informierter Bürger entsteht der Eindruck, die juristische Korrektheit der Zahlen sei alleiniges Qualitätsmerkmal und komplexe Differenzialgleichungen von Physikern stellen eine Art heiligen Gral dar. Beides führt nicht dazu, dass die Pandemie evidenzgeleitet gestaltet wird. Am Ende dieser Analyse seien einige Verbesserungsvorschläge gestattet, um das deutsche Pandemiemanagement und die Kommunikation dazu zu verbessern: Aufbau eines repräsentativen Corona-Fall-Panels für bundes- und landesweite Entscheidungen, klare Kommunikation der Limitationen der Meldefallzahlen, Transparente Darstellung der Modellannahmen, kritischer Vergleich der Modellprognosen mit realen Entwicklungen in Deutschland und international, kritische Begleitung politischer Maßnahmen insbesondere im Hinblick auf ihre Begründung und erwartete Kausalwirkung, stärkere Darstellung von statistischen Methoden zur Messung der Pandemie und sozialwissenschaftlichen Methoden, Aufbau einer höheren Datenkompetenz in der Bevölkerung, bei Journalisten und Politikern.
Der Autor ist Politikwissenschaftler mit Fokus auf quantitative Methoden und digitale Demokratie. Er studiert im Master Politics & Technology an der Technischen Universität München und bloggt unter www.data-and-politics.de.
Das ist ein Beitrag, der im Rahmen unserer Open-Source-Initiative eingereicht wurde. Mit Open Source gibt der Berliner Verlag freien Autorinnen und Autoren sowie jedem Interessierten die Möglichkeit, Texte mit inhaltlicher Relevanz und professionellen Qualitätsstandards anzubieten. Ausgewählte Beiträge werden veröffentlicht und honoriert.
Dieser Beitrag unterliegt der Creative Commons Lizenz (CC BY-NC-ND 4.0). Er darf für nicht kommerzielle Zwecke unter Nennung des Autors und der Berliner Zeitung und unter Ausschluss jeglicher Bearbeitung von der Allgemeinheit frei weiterverwendet werden.