Wesentlich für den Trendverlauf sind die sozioökonomische Werteentwicklung und Änderungen auf der Naturgefahrenseite, zum Beispiel durch Klimavariabilität und Klimawandel. Dabei sind die ökonomischen Faktoren auf der Exposure-Seite meist von größerer Bedeutung. Eine weitere trendbestimmende Komponente ist die vermehrte Erfassung von sehr kleinen Schadenereignissen, da sich insbesondere in den Industrie- und Schwellenländern die Berichterstattung im Lauf der Zeit verbessert hat. Will man den Einfluss der unterschiedlichen Faktoren beurteilen, muss man die Schadendaten räumlich und zeitlich mittels einer übergreifenden ökonomischen Bemessungsgrundlage vergleichbar machen.
Inflationierung und Normalisierung
Zur Beurteilung historischer Schadenereignisse nach heutigen Maßstäben kann man zwei ähnliche, aber doch grundverschiedene Fragen stellen: (a) Was würde der damalige Schaden von Ereignis X heute kosten? (b) Welchen Schaden würde Ereignis X heute verursachen? Während man zur Beantwortung der ersten Frage das Schadenbild festhält und nur nach der Entwicklung des Geldwerts der Schadensumme fragt, muss man für Antwort (b) den Schadenfall unter den heutigen Bedingungen neu abschätzen, also Änderungen bei den exponierten Werten und der Vulnerabilität berücksichtigen. Im ersten Fall reicht es aus, die Inflation mittels eines etablierten Preisindex auf die historisch ermittelten Schadendaten zu übertragen. Dabei ist es wichtig, dass der Index die tatsächliche Preisentwicklung in der betroffenen Region abbildet und sich auf die Währung des Schadenwerts in dem betroffenen Land bezieht. Um der zweiten Frage nachzugehen, welche Dimension der ökonomische Schaden eines historischen Ereignisses heute erreichen könnte, muss darüber hinaus eine Anpassung an die lokale Werteentwicklung vorgenommen werden. Diese Anpassung nennt man Normalisierung. Betrachtet man versicherte Schäden und berücksichtigt man die Änderungen in der Versicherungsdurchdringung, spricht man von Indexierung. Als ökonomische Referenzgröße für die Schadendaten-Normalisierung haben sich auf weltweiter Skala makroökonomische Daten wie das Bruttoinlandsprodukt (BIP) etabliert (siehe auch Topics Geo 2012). Die Daten sind in guter Qualität verfügbar und leicht zugänglich. Dabei multipliziert man einen historischen Schadenwert mit einem Normalisierungsfaktor, der dem Verhältnis von heutigem BIP und BIP zum Zeitpunkt des historischen Geschehens entspricht. Unter der Annahme, dass dieses BIP-Verhältnis tatsächlich die Werteentwicklung vor Ort proportional abbildet, lässt sich der zu erwartende Schadenwert berechnen, der sich ergeben würde, wenn das Ereignis heute noch einmal stattfände. Unberücksichtigt bleiben jedoch Einflüsse, die sich aufgrund einer veränderten Vulnerabilität ergeben.
Beziehen sich die BIP-Daten auf ein ganzes Land oder einen Landstrich, der deutlich größer ist als die von der Naturkatastrophe betroffene Region, ist nicht unbedingt von einem proportionalen Zusammenhang zwischen landesweitem BIP und der Werteentwicklung vor Ort auszugehen. Um dieser Verzerrung entgegenzuwirken, haben wir eine Methode entwickelt, die wir als Hazard-spezifische regionalisierte Normalisierung bezeichnen. Kernstück dieser Normalisierungsvariante bildet ein weltweites 1°x1°-Raster. Für jede Zelle wird das jährlich anteilig auf sie entfallende BIP des Landes errechnet, und zwar beginnend mit dem Jahr 1980. Die Gewichtung erfolgt dabei anhand der Bevölkerungsentwicklung in der Zelle, teils inter- und extrapoliert (Abb. 1). Das Besondere an diesem Ansatz ist, dass jede einzelne Zelle eine Zeitreihe mit dem jeweils auf sie entfallenden BIP-Anteil seit 1980 enthält. Zellen, die Ländergrenzen schneiden, werden entsprechend mehrfach und mit ihrem jeweiligen Anteil geführt.
Im NatCatSERVICE, der globalen Schadendatenbank von Munich Re, sind die geografischen Koordinaten für die bei einem Schadenereignis am stärksten betroffenen Orte und Regionen hinterlegt. Sie bilden die Grundlage für den sogenannten Schaden-Footprint eines Ereignisses. Darüber hinaus hat jede Naturgefahr – ob Gewittersturm, Sturzflut oder Wintersturm – eine individuelle Ausdehnung, den sogenannten Hazard-Footprint.
Footprints
Ein Wintersturm überdeckt eine Fläche, die meist ein Vielfaches der eines Gewitters entspricht, dessen räumliche Ausdehnung typischerweise wiederum weit über die von Sturzfluten nach Starkniederschlägen hinausgeht. Ziel ist es, eine Art geometrischen Kompromiss zwischen Hazard-Footprint und Schaden-Footprint auf dem 1°x1°-Raster zu erreichen. Aus den geokodierten Schadenortinformationen und dem darauf aufbauenden Hazard-spezifischen Auswahlmuster ergibt sich für jedes Ereignis ein individueller Normalisierungs-Footprint. Er gibt vor, welche Zellen für die Bildung des Normalisierungsfaktors verwendet werden. Wir haben im NatCatSERVICE für fünf Grundarten von Schadenereignissen die typischen Footprints ermittelt. Sortiert nach der Ausbreitungsgröße handelt es sich um
Kleinräumige Ereignisse (u. a. Sturzfluten, Erdrutsche und Blitzschlag)
Lokale Ereignisse (u. a. Schwergewitter, Erdbeben, Busch- und Waldbrände)
Großräumige Ereignisse (u. a. Winterstürme, Dürren und Hitzewellen).
Eine Auswahl von Beispielen für einige dieser Hazard-spezifischen Zellen-Auswahlmuster ist in Abb. 2 zu sehen. Abbildungen dieser Art existieren zu allen etwa 28.000 länderbezogenen Ereignissen seit 1980, die im NatCatSERVICE erfasst sind.
Zur Bestimmung des jeweiligen Normalisierungsfaktors bildet man die Summe der Zellenwerte unter dem Footprint für das Jahr, in dem das Schadenereignis stattgefunden hat, und setzt diesen Wert in Relation zu der Summe der Zellenwerte unter dem Footprint für das heutige Jahr. Die Tabelle im Anschluss zeigt die Ergebnisse für zehn ausgewählte Ereignisse.
Zwei Beispiele regionaler Schadenhöhentrends für Schwergewitterschäden in Nordamerika und Überschwemmungsschäden in Europa sind in Abb. 3 weiter oben zu sehen. Die Zunahme der Schwergewitterschäden in normalisierter Auftragung passt zu den meteorologischen Beobachtungen in den USA: eine Intensitätszunahme bei starken und damit schadenträchtigen Schwergewittern mit Tornadoausbrüchen und großem Hagel. Bei der Beurteilung des vernachlässigbaren Trends in den normalisierten Flutschäden in Europa muss berücksichtigt werden, dass nach der verheerenden 2002er-Flut in verbesserte Schutzmaßnahmen investiert wurde. Diese Maßnahmen zeigten Wirkung: Trotz ähnlicher hydrologischer Dimension blieb der Schaden der 2013er-Flut im normalisierten Vergleich deutlich unter dem Wert der 2002er-Flut.
Masse der Ereignisse fällt kaum ins Gewicht
Die hier vorgestellte Normalisierungsmethode ermöglicht es, für jede beliebige Region festzustellen, wie sich das Risiko in Bezug auf die Schadenhöhen im Zeitablauf verändert hat. Neben der ökonomischen Entwicklung ist für die Risikoeinschätzung eine weitere Voraussetzung, dass die Erfassung von Schadenereignissen über den betrachteten Zeitraum homogen geblieben ist. Das ist für die meisten Regionen tatsächlich nicht der Fall. So hat zum Beispiel das Internet ganz erheblich dazu beigetragen, dass insbesondere kleinere Ereignisse heute besser erfasst werden können als vor etwa 30 Jahren. Dieser Effekt hat einen erheblichen Anteil am Trend zunehmender Schadenereignisse, wie in Abb. 4 oben dargestellt. Dieser Reportingtrend hat aber keine nennenswerte Auswirkung auf den Schadenhöhentrend, da die jährlichen Schadenhöhen quer durch alle Naturgefahrenarten von wenigen Großschadenereignissen abhängen, die immer schon erfasst wurden.
Verbesserte Vergleichbarkeit durch differenzierte Klassifizierung
Um den Einfluss kleiner und großer Schadenereignisse auf die Schadenstatistiken analysieren zu können, sind vernünftige Abstufungen zwischen den Schadenereignissen von Bedeutung. Man könnte etwa auf die normalisierten Schadendaten einfach drei global geltende Schwellenwerte (zum Beispiel 10, 100 und 1.000 Millionen US-Dollar) anwenden, um die Ereignisse nach ihrem ökonomischen Schweregrad einzuteilen. Eine solche globale Einteilung lässt allerdings die Tatsache außer Acht, dass ein Schaden von 100 Millionen US-Dollar für Länder wie Haiti oder Bangladesch eine andere Bedeutung hat als zum Beispiel für die USA oder Deutschland. Diese geografisch-ökonomischen Differenzen kann man mit einer Unterteilung der Schwellenwerte abfangen. Dazu bieten sich die vier Einkommensklassen an, nach deren Definition die Weltbank alle Länder jährlich klassifiziert. Mit jeder Einkommensklasse steigt das Bruttonationaleinkommen pro Kopf etwa um den Faktor 3 bis 4. Die in der obigen Tabelle vorgeschlagene Metrik zur Katastrophenklassifizierung bedient sich dieser Einteilung, indem der Schweregrad eines Ereignisses gemessen an der Schadenhöhe von der jeweiligen Einkommensgruppe abhängt. Darüber hinaus geht auch die Anzahl der Todesopfer in die Bemessung des Schweregrads ein. Normalisierte Schadenhöhe und Einkommensgruppe eines Landes im aktuellen Jahr ergeben zusammen mit der Todesopferzahl die Katastrophenklasse. Dieses Vorgehen stellt die robusteste Methode dar, um die ökonomischen Einflüsse von Naturkatastrophen räumlich und zeitlich vergleichbar zu machen. Nach Anwendung dieser KatKlassen-Metrik auf sämtliche Schadenereignisse in der NatCatSERVICE-Datenbank zeigt sich, dass für die Entwicklung der Schadenhöhenstatistik einzig die schweren Ereignisse im jeweiligen Jahr von Bedeutung sind (vgl. Abb. 4, die beiden mittleren Grafiken). Die gerade in den vergangenen Jahren durch verbessertes Reporting wachsende Anzahl von Kleinschadenereignissen hat auf die Schadenhöhenstatistik (im Gegensatz zur Anzahlstatistik) kaum einen Einfluss (vgl. Abb. 4, die beiden mittleren Grafiken). Selbst eine vielfach höhere Anzahl von erfassten Kleinschadenereignissen kann die Gesamtschadensumme nur unwesentlich beeinflussen. Nach Normalisierung und Filterung mittels der KatKlassen verbleiben schließlich residuale Trends und Schwankungen, deren Attribuierung sowohl Änderungen in der Vulnerabilität (zum Beispiel verbesserter Hochwasserschutz, gehobene Baustandards oder verbesserte Vorwarnsysteme) als auch Änderungen auf der Naturgefahrenseite (Ab- und Zunahmen von Intensitäten und Frequenzen von Naturgefahrenereignissen) in den Fokus rücken lassen. Um hier weiter zu differenzieren, muss man regionalisierte und Hazard-spezifische Statistiken betrachten. Für diese Art von weiterführenden Analysen bildet die hier vorgestellte Methode eine geeignete Basis.
Immer einen Schritt voraus mit exklusiven Einblicken und Branchen-Updates! Abonnieren Sie unseren Munich Re Insights Newsletter und lernen Sie die neuesten Trends im Risikomanagement, Expertenanalysen, Markteinblicke und Innovationen in der Versicherungsbranche aus erster Hand kennen. Seien Sie Teil unserer Gemeinschaft von Vordenkern bei Munich Re und machen Sie sich auf den Weg in eine widerstandsfähigere Zukunft.