Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
SYSTEM AND METHOD FOR THE AUTOMATED ESTABLISHMENT OF EXPERIENCE RATINGS AND/OR RISK RESERVES
Document Type and Number:
WIPO Patent Application WO/2005/024717
Kind Code:
A1
Abstract:
The invention relates to a method for the automated establishment of experience ratings and/or risk reserves of events, whereby a certain event Pi,f of a starting year i includes development values Pikf covering the development year k. For i, k it holds that i=1,..;K and k=1,..,K, with K being the last known development year and the first starting year i=1 comprising all development values P1kf in a defined manner. In order to determine the development values Pi,K-(i-j)+1,f, iterative (i-1) neuronal networks Ni,j are generated for every starting year i, with j=1, ,(i-1) being the number of iterations for a certain starting year i and the neuronal network Ni,j+1 depending recursively on the neuronal network Ni,j. The inventive system and method is especially suitable for establishing experience ratings for insurance contracts and/or excess of loss reinsurance contracts.

Inventors:
CUYPERS FRANK (CH)
Application Number:
PCT/CH2003/000612
Publication Date:
March 17, 2005
Filing Date:
September 10, 2003
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
SWISS REINSURANCE CO (CH)
CUYPERS FRANK (CH)
International Classes:
G06N3/02; G06N3/04; G06Q40/00; (IPC1-7): G06N3/04; G06N3/08; G06F17/60
Domestic Patent References:
WO2002047026A22002-06-13
Foreign References:
US5987444A1999-11-16
US5761442A1998-06-02
Other References:
See also references of EP 1530780A1
Attorney, Agent or Firm:
BOVARD AG (Bern 25, CH)
Download PDF:
Claims:
Ansprüche
1. Computergestütztes System zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung, wobei ein bestimmtes Ereignis Pi, f eines Anfangszeitintervalles i Entwicklungswerte Pikf der Entwicklungsintervalle k=1,. ., K umfasst, wobei K das letzt bekannte Entwicklungsintervall ist mit i=1,. .., K und wobei für die Ereignisse Pi, f alle Entwicklungswerte Plkf bekannt sind, dadurch gekennzeichnet, dass das System zur automatisierten Bestimmung der Entwicklungswerte Pj, K+2i, f,..., Pi, K, f mindestens ein neuronales Netzwerk umfasst.
2. Computergestütztes System nach Anspruch 1, dadurch gekennzeichnet, dass für die Ereignisse das Anfangszeitintervall einem Anfangsjahr entspricht und die Entwicklungsintervalle Entwicklungsjahren entsprechen.
3. Computergestütztes System nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass das System zur Bestimmung der Entwicklungswerte Pi,K+2i,f,...,Pi,K, f eines Ereignis Pi, f (i1) iterativ erzeugte neuronale Netzwerke Njj für jedes Anfangszeitintervall i umfasst mit j=1,..., (i1), wobei das neuronale Netzwerk Ni, j+1 rekursiv vom neuronalen Netzwerk Ni,j abhängt.
4. Computergestütztes System nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass Trainingswerte zum Gewichten eines bestimmten neuronalen Netzwerkes Nij die Entwicklungswerte Pp, q, f mit p=1,..., (i1) und q=1,. .., K(ij) umfassen.
5. Computergestütztes System nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die neuronalen Netzwerk Ni, j für gleiche j identisch sind, wobei für ein Anfangszeitintervall i+1 das neuronales Netzwerk Ni_1,j=i erzeugt wird und alle anderen neuronalen Netzwerke Ni+i, j<, Netzwerken früheren Anfangszeitintervallen entsprechen.
6. Computergestütztes System nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das System zusätzlich Ereignisse Pj, f mit Anfangszeitintervall i<1 umfasst, wobei für die Ereignisse Pi<1, f alle Entwicklungswerte Pi<1, k, f bekannt sind.
7. Computergestütztes System nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass das System mindestens einen Normierungsfaktor umfasst, mittels welchem die Entwicklungswerte Pikf der verschiedenen Ereignis Pj, f entsprechend ihrem Anfangszeitintervall normierbar sind.
8. Computergestütztes Verfahren zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung, wobei einem bestimmten Ereignis Pi, f eines Anfangszeitintervalles i Entwicklungswerte Pj, k, f mit Entwicklungsintervallen k=1,. ., K zugeordnet werden, wobei K das letzt bekannte Entwicklungsintervall ist mit i=1,. .., K und wobei für die Ereignisse Pi, f alle Entwicklungswerte P1kf bekannt sind, dadurch gekennzeichnet, dass zur Bestimmung der Entwicklungswerte Pj K+2 f,.... Pi, K, f mindestens ein neuronales Netzwerk verwendet wird.
9. Computergestütztes Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass für die Ereignisse das Anfangszeitintervall einem Anfangsjahr zugeordnet wird und die Entwicklungsintervalle Entwicklungsjahren zugeordnet werden.
10. Computergestütztes Verfahren nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, dass zur Bestimmung der Entwicklungswerte Pi, K(ij)+1,f iterativ (i1) neuronale Netzwerke N, j für jeden Anfangszeitintervall i erzeugt werden mit j=1,...,(i1), wobei das neuronale Netzwerk Nj, j+1 rekursiv vom neuronalen Netzwerk Ni, j abhängt.
11. Computergestütztes Verfahren nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass zum Gewichten eines bestimmten neuronalen Netzwerkes Nus, j die Entwicklungswerte Pp, q, f mit und q=1,. .., K (ij) verwendet werden.
12. Computergestütztes Verfahren nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die neuronalen Netzwerk Ni,j für gleiche j identisch trainiert werden, wobei für ein Anfangszeitintervall i+1 das neuronales Netzwerk NI+Ij=i erzeugt wird und alle anderen neuronalen Netzwerke Ni+ij<j von früheren Anfangszeitintervall übernommen werden.
13. Computergestütztes Verfahren nach einem der Ansprüche 8 bis 12, dadurch gekennzeichnet, dass zur Bestimmung zusätzlich Ereignisse Pi, f mit Anfangszeitintervall i<1 verwendet werden, wobei für die Ereignisse Pi<1,f alle Entwicklungswerte Pi<1, k, f bekannt sind.
14. Computergestütztes Verfahren nach einem der Ansprüche 8 bis 13, dadurch gekennzeichnet, dass mittels mindestens einen Normierungsfaktor die Entwicklungswerte Pjkf der verschiedenen Ereignis Pi, f entsprechend ihrem Anfangszeitintervall normiert werden.
15. Computergestütztes Verfahren zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung, wobei einem bestimmten Ereignis Pi, f eines Anfangszeitintervall i Entwicklungswerte Pi, k, f mit Entwicklungsintervallen k=1,.., K zugeordnet abgespeichert werden, wobei i = 1,.., K und K das letzt bekannte Entwicklungsintervallen ist und wobei für das erste Anfangszeitintervall alle Entwicklungswerte P , k, f bekannt sind, dadurch gekennzeichnet, dass für jedes Anfangszeitintervall i=2,. ., K mittels Iterationen j=1,.., (i 1) bei jeder alteration j in einem ersten Schritt ein neuronales Netzwerk Ni, j mit einem lnputlayer mit K (ij) Inputsegmenten und einem Outputlayer erzeugt wird, wobei jedes Inputsegment mindestens ein Inputneuron umfasst und einem Entwicklungswert Pi, k, f zugeordnet wird, dass in einem zweiten Schritt das neuronale Netzwerk Ni,j mit den verfügbaren Ereignissen Pj, f aller Anfangszeitintervalle m=1,.., (i1) mittels der Entwicklungswerte Pm, 1.. K ( !j), f als Input und Pm, 1.. K (ij) +1, f als Output gewichtet wird, und dass in einem dritten Schritt mittels des neuronalen Netzwerkes Nij die Outputwerte Oj, f für alle Ereignisse Pi, f des Anfangsjahres i bestimmt werden, wobei der Outputwert Oj, f dem Entwicklungswert Pi, K(ij) +1, f des Ereignisses Pi, f zugeordnet wird und wobei das neuronale Netzwerk N, j rekursiv vom neuronalen Netzwerk Ni,j+1 abhängt.
16. Computergestütztes Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass für die Ereignisse das Anfangszeitintervall einem Anfangsjahr zugeordnet wird und die Entwicklungsintervalle Entwicklungsjahren zugeordnet werden.
17. System von neuronalen Netzwerken, welche neuronalen Netzwerke Ni jeweils einen Inputlayer mit mindestens einem Inputsegment und einen Outputlayer umfassen, wobei der Inputund Outputlayer eine Vielzahl von Neuronen umfasst, die gewichtet miteinander verbunden sind, dadurch gekennzeichnet, dass die neuronalen Netzwerke Ni mittels einer Recheneinheit softwareund/oder hardwaremässig iterativ erzeugbar sind, wobei ein neuronales Netzwerk Ni+1 rekursiv vom neuronalen Netzwerk Ni abhängt und jedes Netzwerk Ni+1 jeweils ein Inputsegment mehr als das Netzwerk Ni umfasst, dass jedes neuronale Netzwerk Ni beginnend beim neuronalen Netzwerk N1 mittels eines Minimierungsmoduls durch Minimierung eines lokal propagierten Fehlers trainierbar ist, und dass das rekursive System von neuronalen Netzwerken mittels einem Minimierungsmodul durch Minimierung eines global propagierten Fehlers basierend auf den lokalen Fehlern der neuronalen Netzwerke Ni trainierbar ist.
18. System von neuronalen Netzwerken nach Anspruch 17, dadurch gekennzeichnet, dass der Outputlayer des neuronalen Netzwerkes Ni mit mindestens einem Inputsegment des Inputlayers des neuronalen Netzwerkes Ni+1 zugeordnet verbunden ist.
19. Computerprogrammprodukt, welches ein computerlesbares Medium mit darin enthaltenen Computerprogrammcodemitteln zur Steuerung eines oder mehrerer Prozessoren eines computerbasierten Systems zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung umfasst, wobei einem bestimmten Ereignis Pi, f eines Anfangszeitintervalles i Entwicklungswerte Pi, k, f mit Entwicklungsintervalles k=1,. ., K zugeordnet abgespeichert umfasst, wobei i = 1,.., K und K das letzt bekannte Entwicklungsintervall ist und wobei für das erste Anfangszeitintervalles i=1 alle Entwicklungswerte P1, k, f bekannt sind, dadurch gekennzeichnet, dass mittels des Computerprogrammproduktes mindestens ein neuronales Netzwerk softwaremässig generierbar ist und zur Bestimmung der Entwicklungswerte Pi. K+2i. f,..., Pi. K. f verwendbar ist.
20. Computerprogrammprodukt nach Anspruch 19, dadurch gekennzeichnet, dass für die Ereignisse das Anfangszeitintervall einem Anfangsjahr zugeordnet ist und die Entwicklungsintervalle Entwicklungsjahren zugeordnet sind.
21. Computerprogrammprodukt nach einem der Ansprüche 19 oder 20, dadurch gekennzeichnet, dass zur Bestimmung der Entwicklungswerte Pi,, (ij)+1, f für jedes Anfangszeitintervall i mittels des Computerprogrammprodukt iterativ (i1) neuronale Netzwerke Ni, j erzeugbar sind mit j=1,..., (i1), wobei das neuronale Netzwerk Ni, j+1 rekursiv vom neuronalen Netzwerk Nij abhängt.
22. Computerprogrammprodukt nach einem der Ansprüche 19 bis 21, dadurch gekennzeichnet, dass zum Gewichten eines bestimmten neuronalen Netzwerkes Ni, j mittels des Computerprogrammprodukt die Entwicklungswerte Pp, q, f mit p=1,..., (i1) und q=1,..., K(ij) aus einer Datenbank auslesbar sind.
23. Computerprogrammprodukt nach einem der Ansprüche 19 bis 21, dadurch gekennzeichnet, dass beim Computerprogrammprodukt die neuronalen Netzwerk Ni, j für gleiche j identisch trainiert werden, wobei mittels des Computerprogrammprodukt für ein Anfangszeitintervall i+1 das neuronale Netzwerk Ni+1,j=i erzeugt wird und alle anderen neuronalen Netzwerke Ni+1,j<i von früheren Anfangszeitintervall übernommen werden.
24. Computerprogrammprodukt nach einem der Ansprüche 19 bis 23, dadurch gekennzeichnet, dass die Datenbank zusätzlich Ereignisse Pi, f mit Anfangszeitintervall i<1 abgespeichert umfasst, wobei für die Ereignisse Pi<1, f alle Entwicklungswerte Pj<1, k, f bekannt sind.
25. Computerprogrammprodukt nach einem der Ansprüche 19 bis 24, dadurch gekennzeichnet, dass das Computerprogrammprodukt mindestens einen Normierungsfaktor umfasst, mittels welchem die Entwicklungswerte Plkf der verschiedenen Ereignis Pi, f entsprechend ihrem Anfangszeitintervall normierbar sind.
26. Computerprogrammprodukt, welches in den internen Speicher eines digitalen Computers ladbar ist und Softwarecodeabschnitte umfasst, mit denen die Schritte gemäss einem der Ansprüche 8 bis 16 durchführbar sind, wenn das Produkt auf einem Computer läuft, wobei die neuronalen Netzwerke softwaremässig und/oder hardwaremässig generierbar sind.
Description:
System und Verfahren zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung Die Erfindung betrifft ein System und ein Verfahren zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung, wobei ein bestimmtes Ereignis Pif eines Anfangszeitintervalles i mit f=1,..., FI für eine Folge von Entwicklungsintervallen k=1,. .., K Entwicklungswerte Pikf umfasst. Für die Ereignisse Pifés ersten Anfangszeitintervall i=1 sind alle Entwicklungswerte Pikf f=1,..., F bekannt. Die Erfindung betrifft insbesondere ein Computerprogrammprodukt zur Durchführung dieses Verfahrens.

Erfahrungstarifierung bezieht sich im Stand der Technik auf Werteentwicklungen von Parametern von Ereignissen, die sich in einem bestimmten Jahr, dem Anfallsjahr oder Anfangsjahr, zum ersten Mal ereignen, und deren Folgen sich über mehrere Jahre fortpflanzen, den sog.

Entwicklungsjahren. Allgemeiner ausgedrückt ereignen sich die Ereignisse zu einem bestimmten Zeitpunkt und entwickeln sich in vorgegebenen Zeitintervallen. Die Ereigniswerte des gleichen Ereignisses zeigen dabei über die verschiedenen Entwicklungsjahre oder Entwicklungszeitintervalle eine abhängige zeitrückbezogene Entwicklung. Die Erfahrungstarifierung der Werte findet durch Extrapolation bzw. den Vergleich mit der Werteentwicklung bekannter ähnlicher, zeitlich zurückliegender Ereignisse statt.

Ein typisches Beispiel im Stand der Technik ist die mehrjährige Erfahrungstarifierung anhand von Schadenfällen, z. B. des Zahlungsstandes Z oder des Reservestandes R eines Schadensfalles bei Versicherungsgesellschaften oder Rückversicherern. Bei der Erfahrungstarifierung von Schadensfällen kennt ein Versicherungsunternehmen die Entwicklung jedes einzelnen Schadensfalls vom Zeitpunkt der Schadensmeldung bis zum aktuellen Stand oder bis zur Regulierung. Bei der Erfahrungstarifierung liegt die Begründung der klassischen Credibility-Formel durch ein stochastisches Modell etwa 30 Jahre zurück ; seitdem sind zahlreiche Varianten des Modells entwickelt worden, so dass man heute von einer eigentlichen Credibility-Theorie sprechen kann. Das Hauptproblem bei der Anwendung von Credibility-Formeln bilden die unbekannten Parameter, die

durch die Struktur des Bestandes bestimmt sind. Als Alternative zu bekannten Schätzverfahren bietet sich im Stand der Technik z. B. auch ein spieltheoretischer Ansatz an : Der Aktuar oder Versicherungsmathematiker kennt Schranken für die Parameter und bestimmt die optimale Prämie für den ungünstigsten Fall. Die Credibility-Theorie umfasst auch eine Reihe von Modellen zur Reservierung für Spätschäden. Dabei gibt es eine Vielfalt von Reservierungsverfahren, die, anders als die Credibility-Formel, nicht von unbekannten Parametern abhängen. Auch hier umfasst der Stand der Technik Verfahren durch stochastische Modelle, die die Erzeugung der Daten beschreiben. Eine Reihe von Ergebnissen liegt vor allem für das Chain-Ladder- Verfahren als eines der bekanntesten Verfahren zum Berechnen von ausstehenden Zahlungsforderungen bzw. zur Extrapolation der Schadensfälle vor. Die Stärken des Chain-Ladder-Verfahrens liegen einerseits in seiner Einfachheit anderseits darin, dass das Verfahren annähernd verteilungsfrei ist, d. h., das Verfahren basiert auf beinahe keinen Annahmen. Verteilungsfreie oder nicht parametrische Verfahren sind besonders für Fälle geeignet, in welchen der Anwender nur ungenügend oder gar keine Angaben über die zu erwartende Verteilung (z. B. Gaussverteilung etc. ) der zu entwickelnden Parameter machen kann.

Das Chain-Ladder-Verfahren bedeutet, dass von einem Ereignis oder Schaden Pif mit f=1, 2,. .., Fi aus Anfalljahr i=1,..., 1 Werte P ;, bekannt sind, wobei Pikf z. B. den Zahlungsstand oder den Reservestand zum Ende jedes Abwicklungsjahres k=1,. .., K sein kann. Ein Ereignis Pif besteht in diesem Fall also in einer Folge von Punkten Pif = (Pi1f, Pi2f,---, PiKf) von der die ersten K+ 1-i Punkte bekannt sind und die noch unbekannten Punkte (Pi, K+2-i, f,..., Pi, K, f), prognostiziert werden sollen. Die Werte der Ereignisse Pif bilden ein sog. Schadensdreieck oder allgemeiner ein Ereigniswertedreieck

Die Zeilen und Spalten werden gebildet durch die Schadensanfalljahre und die Abwicklungsjahre. Aligemein ausgedrückt stehen in den Zeilen z. B. die Anfangsjahre und in den Spalten die Entwicklungsjahre der untersuchten Ereignisse, wobei die Darstellung auch verschieden dazu sein kann. Das Chain-Ladder-Verfahren basiert nun auf den kumulierten Schadensdreiecken, deren Einträge Cwj z. B. entweder reine Schadenszahlungen oder Schadensaufwendungen (Schadenszahlungen plus Veränderung der Schadensreserven) sind. Für die kumulierten Matrixelemente Cij gilt damit folgt

Aus den mit dem Chain-Ladder-Verfahren interpolierten kumulierten Werten kann auch wieder auf das Einzelereignis geschlossen werden, indem eine Bestimmte Verteilung, z. B. typischerweise eine Pareto-Verteilung, der Werte angenommen wird. Die Pareto-Verteilung ist insbesondere für Versicherungsarten wie z. B. Versicherungen von Grossschäden oder Rückversicherer etc. geeignet. Die Pareto-Verteilung hat folgende Form

wobei T ein Schwellwert und a der Fitparameter ist. Die Einfachheit des Chain-Ladder-Verfahrens liegt insbesondere darin, dass es zur Anwendung nicht mehr als obiges (über den Entwicklungswerten der einzelnen Ereignisse kumuliertes) Schadensdreieck und z. B. keine Informationen über Meldedaten, Reservierungsabwicklungen oder Annahmen über mögliche Schadenshöhenverteilungen etc. braucht. Die Nachteile des Chain-Ladder- Verfahrens sind im Stand der Technik hinlänglich bekannt (siehe z. B. Thomas Mack, Measuring the Variability of Chain Ladder Reserve Estimates, submitted CAS Prize Paper Competition 1993, Greg Taylor, Chain Ladder Bias, Centre for Actuarial Studies, University of Melbourne, Australia, March 2001, pp 3). Um einen guten Schätzwert zu erhalten ist einen ausreichende Datenhistorie notwendig. Insbesondere bewährt sich das Chain Ladder Verfahren bei Sparten, wie z. B. Kfz-Haftpflichtversicherungen, bei welchen die Unterschiede in den Schadensjahren zu grossen Teilen auf Unterschiede in den Schadenfrequenzen zurückzuführen sind, da die Schätzer des Chain-Ladder- Verfahrens den Maximum-Likelihood Schätzern eines Models mittels modifizierter Poissonverteilung entsprechen. Vorsicht ist daher z. B. bei Jahren geboten, in denen Änderungen an der Schadenshöhenverteilung (z. B. eine Erhöhung der Höchsthaftungssumme oder Änderungen im Selbstbehalt) vorgenommen werden, da diese Änderungen zu Struckturbrüchen im Chain- Ladder-Verfahren führen können. Bei Sparten mit extrem langer Abwicklungsdauer-wie z. B. bei der allgemeinen Haftpflichtversicherung-führt in vielen Fällen die Anwendung des Chain-Ladder-Verfahrens ebenfalls zu brauchbaren Ergebnissen, obwohl Informationen, wie z. B. eine zuverlässige Schätzung der Endschadensquote, aufgrund der langen Abwicklungsdauer selten verfügbar sind. Der Hauptnachteil des Chain-Ladder-Verfahrens liegt jedoch darin, dass das Chain-Ladder-Verfahrens auf dem kumulierten Schadensdreieck basiert, d. h. durch die Kumulierung der Ereigniswerte der Ereignisse mit gleichem Anfangsjahr geht wesentliche Information über die einzelnen Schäden bzw. Ereignisse verloren, die später nicht mehr zurückerhalten werden kann.

Im Stand der Technik ist ein Verfahren von T. Mack bekannt (Thomas Mack, Schriftreihe Angewandte Versicherungsmathematik, Heft 28, p 310ff, Verlag Versicherungswirtschaft E. V., Karlsruhe 1997), bei welchem die Werte fortgepflanzt werden können, d. h. die Werte im Schadensdreieck extrapoliert werden können, ohne dass die Informationen der Einzelereignisse verloren geht. Mit dem Mack'schen Verfahren kann also unter Ausnutzung der vollständigen Zahlenbasis für jeden Schaden eine individuelle IBNER-Reserve berechnet werden (IBNER : Incurred But Not Enough Reported). Unter IBNER- Forderungen versteht man Zahlungsforderungen, welche entweder über den prognostizierten Werten liegen oder noch ausstehend sind. Die IBNER-Reserve ist insbesondere zur Erfahrungstarifierung von Schadenexzendenten- Rückversicherungsverträgen nützlich, wo der Rückversicherer in der Regel zumindest für die relevanten Grossschäden die erforderlichen Einzelschadensdaten erhält. Beim Rückversicherer beschreibt die zeitliche Entwicklung eines Bestandes von Risiken durch einen Risiko-Prozess, in dem Schadenzahlen und Schadenhöhen modelliert werden, wodurch in der Schadenexzedenten-Rückversicherung beim Übergang vom Erst-zum Rückversicherer das Phänomen der zufälligen Verdünnung des Risiko- Prozesses entsteht ; andererseits werden durch Rückversicherung Bestände von mehreren Erstversicherern zusammengeführt und damit Risiko-Prozesse überlagert. Die Auswirkungen von Verdünnung und Überlagerung wurden bisher vor allem für Poisson'sche Risiko-Prozesse untersucht. Für Versicherungen/Rückversicherungen bedeutet die Erfahrungstarifierung mittels des Mack'schen Verfahrens, dass von jedem Schaden Pif mit f=1, 2,. .., Fi aus Anfalljahr oder Anfangsjahr der Zahlungsstand Zikf und der Reservestand Rif hum Ende jedes Abwicklungsjahres oder Entwicklungsjahres k=1,. .., K bis zum aktuellen Stand (Zi, K+1-i, f, Ri, K+1-i, f) bekannt ist. Ein Schaden Pif besteht in diesem Fall also in einer Folge von Punkten Pif = (Zi1f, Ri1f), (Zi2f, Rj2f),..., (ZjKf, RjKf) in der Zahlungs-Reserve-Ebene, von der die ersten K+ 1-i Punkte bekannt sind und die noch unbekannten Punkte (Zj, K+2-i, f, Ri. K+2- !, f)...., (Zj, x, f, Ri, K, f), prognostiziert werden sollen. Insbesondere interessiert natürlich der Endstand (Zi, K, f, Ri, K, f), wobei im Idealfall Ri, K, f = 0 ist, d. h. der Schaden als

vollständig reguliert angesehen wird ; ob dies erreichbar ist, hängt von der Länge K des betrachteten Entwicklungszeitraums ab. Ein Schadensstand (Z, K+i-i, f, Ri, K+1 , f) wird im Stand der Technik, wie z. B. im Mack'schen Verfahren, so fortgesetzt, wie dies bei ähnlichen Schäden aus früheren Anfalljahren der Fall war. In den herkömmlichen Verfahren muss also zum einen festgelegt werden, wann zwei Schäden"ähnlich"sind und zum anderen, was es heisst einen Schaden"fortzusetzen". Ausserdem muss neben der sich so ergebenden IBNER-Reserve in einem zweiten Schritt festgelegt werden, wie die echten Spätschäden zu berechnen sind, von denen zum aktuellen Zeitpunkt noch nichts bekannt ist.

Zur Qualifizierung der Ähnlichkeit wird im Stand der Technik z. B. der Euklidische Abstand in der Zahlungs-Reserve-Ebene verwendet. Aber auch mit dem Euklidischen Abstand gibt es viele Möglichkeiten, um zu einem gegebenen Schaden (Pi, 1, f, Pi, 2, f,..., Pi, K+1-i, f) den nächst ähnlichsten Schaden eines früheren Anfalljahrs zu finden, d. h. den Schaden (P1,..., Pk) mit k > K+1-i, für den entweder (Summe aller bisherigen Abstände) oder (gewichtete Summe aller Abstände) oder (maximaler Abstand) oder

(aktueller Abstand) minimal ist.

Beim Beispiel des Mack'schen Verfahrens wird im Normalfall der aktuelle Abstand benutzt. Dies bedeutet, dass zu einem Schaden (Pi,..., Pk), dessen Abwicklung bis zum k-ten Entwicklungsjahr bekannt ist, von allen anderen Schäden deren Entwicklung mindestens bis Entwicklungsjahr j 2 k + 1 bekannt ist, derjenige als der Ähnlichste betrachtet wird, für den der aktuelle Abstand d (Pk, Pk) am kleinsten ist.

Der Schaden (Pi,..., Pk) wird nun so fortgesetzt, wie dies bei seinem abstandsnächsten"Vorbild" (P1,..., Pk, Pk+I..., ;) der Fall ist. Hierfür gibt es die Möglichkeit, um ein einziges Abwicklungsjahr (d. h. bis Pk+1) oder um mehrere Entwicklungsjahre zugleich (z. B. bis Pj) fortzusetzen. Bei Verfahren, wie z. B. dem Mack'schen-Verfahren wird typischerweise zunächst nur um ein Abwicklungsjahr fortgesetzt, um dann wieder einen neuen ähnlichsten Schaden zu suchen, womit der gerade fortgesetzte Schaden um ein weiteres Entwicklungsjahr fortgesetzt wird. Der nächste gefundene Schaden kann natürlich auch wieder derselbe sein. Zur Fortsetzung der Schadensfälle gibt es zwei Möglichkeiten. Die additive Fortsetzung von Pk = (Zk, Rk) #k+1 = (#k+1,#k+1) = (Zk + #k+1 - #k,Rk + #k+1 - #k), und die multiplikative Fortsetzung von Pk = (Zk, Rk) Es ist einfach zu sehen, dass einer der Nachteile des Standes der Technik, insbesondere des Mack'schen Verfahrens, u. a. in der Art der Fortsetzung der Schadensfälle liegt. Die multiplikative Fortsetzung ist nur für so genannt offene Schadensstände, d. h. Zk > 0, Rk > 0 sinnvoll. Bei mutmasslichen Schadensständen Pk = (0, Rk), Rk > 0, muss die multiplikative Fortsetzung diversifiziert werden, da andernfalls keine Fortsetzung erfolgt.

Ausserdem, falls Zk = 0 oder Rk = 0, erfolgt eine Division durch 0. Ähnlich,

falls #k oder #k klein ist, kann das multiplikative Verfahren leicht zu unrealistisch hohen Fortsetzungen führen. Dies lässt eine konsistente Behandlung der Fälle nicht zu. D. h. die Reserve Rk kann in diesem Fall nicht einfach fortgesetzt werden. Ebenso kann ein ausregulierter Schadensstand Pk = (Zk, 0), Zk > 0 ebenfalls nicht weiterentwickelt werden. Eine Möglichkeit ist, ihn einfach unverändert zu lassen. Ein Wiederaufleben eines Schadens wird damit jedoch verhindert. Allenfalls könnte man ihn anhand des nächstliegenden ausregulierten Vorbildes fortsetzten, was ebenfalls eine konsistente Behandlung der Fälle nicht zulässt. Auch bei der additiven Fortsetzung sollten sinnvollerweise mutmassliche Schadensstände nur anhand eines ebenfalls mutmasslichen Vorbildes fortgesetzt werden, um den Euklidischen Abstand zu minimieren und um eine entsprechende Qualifizierung der Ähnlichkeit zu garantieren. Ein analoger Nachteil entsteht bei ausregulierten Schadensständen, falls ein Wiederaufleben zugelassen werden soll und negative Reserven vermieden werden sollen. Ganz allgemein kann das additive Verfahren leicht zu negativen Zahlungen und/oder Reserven führen. Zusätzlich kann im Stand der Technik ein Schaden Pk nicht fortgesetzt werden, wenn kein entsprechendes Vorbild existiert, ohne dass nicht weitere Annahmen in das Verfahren gesteckt werden. Als Beispiel dazu ist ein offener Schaden Pk, wenn es im gleichen Abwicklungsjahr k keinen Schaden aus früheren Anfallsjahren gibt, bei dem Pk ebenfalls offen ist. Ein Ausweg aus dem Dilemma kann dadurch gefunden werden, dass für diesen Fall Pk unverändert gelassen wird, d. h. Pk+, =Pk, was natürlich keiner echten Fortsetzung entspricht.

Insgesamt wird somit im Stand der Technik jeder aktuelle Schadensstand Pi, K+ -i, f = (Zi, K+1-i, f, Ri, K+1-i, f) schrittweise bis zum Entwicklungs- bzw. Abwicklungsende nach K-Entwicklungsjahren entweder additiv oder multiplikativ weiterentwickelt. Dabei wird in jedem Schritt der jeweils gemäss Euklidischem Abstand nächstliegende Vorbildschadensstand vom gleichen Schadensstandstyp (mutmasslich, offen oder ausreguliert) festgestellt und der fortzusetzende Schadensstand entsprechend der Weiterentwicklung des Vorbildschadens entweder additiv oder multiplikativ fortgesetzt. Für das Mack'sche Verfahren ist es ebenfalls sinnvoll, als Vorbild stets nur tatsächlich beobachtete Schadensentwicklungen Pk 9 Pk+ in Betracht zu ziehen und keine extrapolierte, d. h. entwickelten Schadenentwicklungen, da andernfalls eine

Korrelation und/oder ein entsprechender Bias der Ereignisse nicht zu vermeiden ist. Umgekehrt erhält man damit jedoch den Nachteil, dass bereits bekannte Information von Ereignissen verloren geht.

Von der Konstruktion der Verfahren des Standes der Technik leuchtet es unmittelbar ein, dass die Verfahren auch getrennt, einerseits auf das Dreieck der Zahlungen, andererseits auf das Dreieck der Reserven, angewandt werden können. Natürlich könnten bei der beschriebenen Vorgehensweise auch andere Möglichkeiten zugelassen werden, um den jeweils nächstliegenden Schadensstand als Vorbild zu finden. Dies würde sich jedoch insbesondere auf die Verteilungsfreiheit des Verfahrens auswirken.

Damit lässt sich sagen, dass sich beim Standes der Technik die oben genannten systematischen Probleme auch durch entsprechende Modifikationen nicht beheben lassen oder allenfalls nur dadurch, dass weitere Modellannahmen in das Verfahren gesteckt werden. Gerade aber bei komplexen dynamisch nichtlinearen Prozessen, wie z. B. die Entwicklung von Schadensfällen, ist dies in den aller meisten Fällen nicht wünschenswert.

Selbst wenn man die genannten Nachteile ausser Acht lässt, muss bei dem herkömmlichen Verfahren nach T. Mack immer noch festgelegt werden, wann zwei Schäden ähnlich sind und was es heisst, einen Schaden fortzusetzen, wodurch also minimale Grundannahmen bzw. Modelannahmen getroffen werden müssen. Im Stand der Technik ist jedoch nicht nur die Wahl der euklidschen Metrik arbiträr, sondern auch die Wahl zwischen dem erwähnten multiplikativen und additiven Verfahren. Weiter wird im Stand der Technik die Fehlerschätzung nicht näher definiert. Zwar ist es vorstellbar, einen Fehler z. B. basierend auf der inversen Distanz zu definieren. Dies wird aber im Stand der Technik nicht offenbart. Ein wichtiger Nachteil des Standes der Technik ist jedoch auch, dass jedes Ereignis mit allen vorherigen verglichen werden muss, um fortgesetzt werden zu können. Der Aufwand steigt linear mit der Anzahl Jahre und linear mit der Anzahl Schäden im Portefeuille. Wenn Portefeuilles aggregiert, steigt der Rechenaufwand und der Speicherbedarf entsprechend.

Neuronale Netze sind grundsätzlich im Stand der Technik bekannt und werden z. B. zum Lösen von Optimierungsaufgaben, Bildererkennung (Patternrecogition), in der künstlichen Intelligenz etc. eingesetzt. Entsprechend

biologischer Nervennetze besteht ein neuronales Netzwerk aus einer Vielzahl von Netzknoten, sog. Neuronen, die über gewichtete Verbindungen (Synapsen) miteinander verbunden sind. Die Neuronen sind in Netzschichten (Layers) organisiert und zusammengeschaltet. Die einzelnen Neuronen werden in Abhängigkeit ihrer Eingangssignale aktiviert und erzeugen ein entsprechendes Ausgangssignal. Die Aktivierung eines Neurons erfolgt über einen individuellen Gewichtsfaktor durch die Summation über die Eingangssignale. Derartige neuronale Netze sind lernfähig, indem die Gewichtsfaktoren in Abhängigkeit von vorgegebenen beispielhaften Eingangs-und Ausgangswerten systematisch so lange verändert werden, bis das neuronale Netz in einem definierten vorhersagbaren Fehlerbereich ein gewünschtes Verhalten zeigt, wie z. B. die Vorhersage von Ausgabewerten für zukünftige Eingangswerte. Damit weisen neuronale Netze adaptive Fähigkeiten zur Erlernung und Speicherung von Wissen und assoziative Fähigkeiten zum Vergleich von neuen Informationen mit gespeichertem Wissen auf. Die Neuronen (Netzknoten) können einen Ruhezustand oder einen Erregungszustand einnehmen. Jedes Neuron hat mehrere Eingänge und genau einen Ausgang, der mit den Eingängen anderer Neuronen der nachfolgenden Netzschicht verbunden ist oder im Falle eines Ausgangsknotens einen entsprechenden Ausgangswert repräsentiert. Ein Neuron geht in den Erregungszustand über, wenn eine genügende Anzahl der Eingänge des Neurons über einem bestimmten Schwellenwert des Neurons erregt sind, d. h. falls die Summation über den Eingängen einen bestimmten Schwellwert erreicht. In den Gewichten der Eingänge eines Neurons und in dem Schwellenwert des Neurons ist das Wissen durch Adaption abgespeichert.

Mittels Lernvorgang werden die Gewichte eines neuronalen Netzes trainiert (siehe z. B. G. Cybenko, "Approximation by Superpositions of a sigmoidal function", Math. Control, Sig. Syst., 2,1989, pp 303-314 ; M. T. Hagan, M. B.

Menjaj, "Training Feedforward Networks with the Marquardt Algorithm", IEEE Transactions on Neural Networks, Vol. 5, Nr. 6, pp 989-993, November 1994 ; K. Hornik, M. Stinchcombe, H. White,"Multilayer Feedforward Networks are universal Approximators", Neural Networks, 2, 1989, pp 359-366 etc.).

Es ist eine Aufgabe dieser Erfindung, ein neues System und Verfahren zur automatisierten Erfahrungstarifierung von Ereignissen und/oder Schadensreservierung vorzuschlagen, das die oben genannten Nachteile des

Standes der Technik nicht aufweist. Insbesondere soll ein automatisiertes, einfaches und rationelles Verfahren vorgeschlagen werden, um einen vorgegebenen Schaden mit einem individuellen Zuwachs bzw. Faktor weiterzuentwickeln, so dass nachträglich die gesamte Information über die Entwicklung eines einzelne Schadens zur Verfügung steht. Bei dem Verfahren sollen so wenig wie möglich Annahmen über die Verteilung von vornherein getroffen werden und gleichzeitig soll die maximal mögliche Information der vorgegebenen Fälle ausgenutzt werden.

Gemäss der vorliegenden Erfindung wird dieses Ziel insbesondere durch die Elemente der unabhängigen Ansprüche erreicht. Weitere vorteilhafte Ausführungsformen gehen ausserdem aus den abhängigen Ansprüchen und der Beschreibung hervor.

Insbesondere werden diese Ziele durch die Erfindung dadurch er- reicht, dass einem bestimmten Ereignis Pi, f eines Anfangszeitintervalles i Entwicklungswerte Pjsk, f mit Entwicklungsintervallen k=1,. ., K zugeordnet werden, bei welchem K das letzt bekannte Entwicklungsintervall ist mit i=1,..., K und für die Ereignisse Pi. f alle Entwick) ungswerte Pikf bekannt sind, wobei zur Bestimmung der Entwicklungswerte Pi, K+2-i, f,..., P, Kf mindestens ein neuronales Netzwerk verwendet wird. Bei bestimmten Ereignissen kann z. B. das Anfangszeitintervall einem Anfangsjahr zugeordnet werden und die Entwicklungsintervalle Entwicklungsjahren zugeordnet werden. Die Entwicklungswerte Pikf der verschiedenen Ereignisse Pi, f können entsprechend ihrem Anfangszeitintervall mittels mindestens einem Normierungsfaktor normiert werden. Die Normierung der Entwicklungswerte Pjkf hat u. a. den Vorteil, dass die Entwicklungswerte zu unterschiedlichen Zeitpunkten vergleichbar sind. Diese Ausführungsvariante hat weiter u. a. den Vorteil, dass zur automatisierten Erfahrungstarifierung keine Modelannahmen z. B. über Werteverteilungen, Systemdynamiken etc. vorausgesetzt werden müssen.

Insbesondere ist die Erfahrungstarifierung frei von Proximationsvoraussetzungen wie z. B. das Euklidschen Mass etc. Dies ist beim Stand der Technik so nicht möglich. Zusätzlich wird die gesamte Information des Datensamples verwendet, ohne dass die Datensätze kumuliert werden. Die komplette Information über die einzelnen Ereignisse bleibt in jeder Stufe

erhalten und kann am Ende wieder abgerufen werden. Die Normierung hat den Vorteil, dass Datensätze unterschiedlicher Anfangszeitintervalle vergleichbare Grössenordnungen erhalten und so besser verglichen werden können.

In einer Ausführungsvariante werden zur Bestimmung der Entwicklungswerte Pi, K- (i-j) +1, f iterativ (i-1) neuronale Netzwerke Ni,j für jedes Anfangszeitintervall und/oder Anfangsjahr i erzeugt mit j=1,..., (i-1), wobei das neuronale Netzwerk Nj, j+1 rekursiv vom neuronalen Netzwerk Ni,j abhängt. Zum Gewichten eines bestimmten neuronalen Netzwerkes Nij können z. B. die Entwicklungswerte Pp, q, f mit p=1,..., (i-1) und q=1,..., K- (i-j) verwendet werden.

Diese Ausführungsvariante hat u. a. den Vorteil, dass wie in der vorhergehenden Ausführungsvariante die gesamte Information des Datensamples verwendet wird, ohne dass die Datensätze kumuliert werden.

Die komplette Information über die einzelnen Ereignisse bleibt in jeder Stufe erhalten und kann am Ende wieder abgerufen werden. Mittels einer Minimierung eines global eingeführten Fehlers können die Netzwerke zusätzlich optimiert werden.

In einer anderen Ausführungsvariante werden die neuronalen Netzwerk Nij für gleiche Entwicklungsjahre und/oder Entwicklungsintervalle j identisch trainiert, wobei für ein Anfangszeitintervall und/oder Anfangsjahr i+1 das neuronales Netzwerk Ni+"j=i erzeugt wird und alle anderen neuronalen Netzwerke Ni+1,j<1 von früheren Anfangszeitintervallen und/oder Anfangsjahren übernommen werden. Diese Ausführungsvariante hat u. a. den Vorteil, dass nur bekannte Daten zur Erfahrungstarifierung verwendet werden und vom System bestimmte Daten nicht weiter verwendet werden, wodurch die Korrelation der Fehler bzw. der Daten verhindert wird.

In einer wieder anderen Ausführungsvariante werden zur Bestimmung zusätzlich Ereignisse Pi, f mit Anfangszeitintervall i<1 verwendet werden, wobei für die Ereignisse Pj<1, f alle Entwicklungswerte Pj<1, k, f bekannt sind. Diese Ausführungsvariante hat u. a. den Vorteil, dass durch die zusätzlichen Datensätze die neuronalen Netzwerke besser optimiert werden können und ihr Fehler minimiert werden kann.

In einer weiteren Ausführungsvariante werden zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung einem bestimmten Ereignis Pi, f eines Anfangszeitintervalles i Entwicklungswerte Pi, k, f mit Entwicklungsintervallen k=1,.., K zugeordnet abgespeichert, bei welchem i = 1,.., K und K das letzt bekannte Entwicklungsintervall ist und bei weichem für das erste Anfangszeitintervall alle Entwicklungswerte Pl, k, f bekannt sind, wobei für jedes Anfangszeitintervall i=2,. ., K mittels Iterationen j=1,.., (i-1) bei jeder Iteration j in einem ersten Schritt ein neuronales Netzwerk Nij mit einem Inputlayer mit K-(i-j) Inputsegmenten und einem Outputlayer erzeugt wird, welche Inputsegmente mindestens ein Inputneuron umfassen und einem Entwicklungswert Pi, k, f zugeordnet werden, wobei in einem zweiten Schritt das neuronale Netzwerk Ni,j mit den verfügbaren Ereignissen Pi, f aller Anfangszeitintervalle m=1,.., (i-1) mittels der Entwicklungswerte Pm,1..K-(i-j), f als Input und Pm, 1.. K-(i ( !-j) +i, f ais Output gewichtet wird, und wobei in einem dritten Schritt mittels des neuronalen Netzwerkes Nij die Outputwerte Oj, f für alle Ereignisse Pi, f des Anfangszeitintervalles i bestimmt werden, wobei der Outputwert Oi,f dem Entwicklungswert Pi,K-(i-j)+1,f des Ereignisses Pi, f zugeordnet wird und wobei das neuronale Netzwerk Nij rekursiv vom neuronalen Netzwerk Ni, j, 1 abhängt. Bei bestimmten Ereignissen kann z. B. das Anfangszeitintervall einem Anfangsjahr zugeordnet werden und die Entwicklungsintervalle Entwicklungsjahren zugeordnet werden. Diese Ausführungsvariante hat u. a. die gleichen Vorteile wie die vorhergehenden Ausführungsvarianten.

In einer Ausführungsvariante umfasst ein System neuronale Netzwerke Ni mit jeweils einen Inputlayer mit mindestens einem Inputsegment und einen Outputlayer, welcher Input-und Outputlayer eine Vielzahl von Neuronen umfasst, die gewichtet miteinander verbunden sind, wobei die neuronalen Netzwerke Ni mittels einer Recheneinheit software-und/oder hardwaremässig iterativ erzeugbar sind, wobei ein neuronales Netzwerk Ni+1 rekursiv vom neuronalen Netzwerk Ni abhängt und jedes Netzwerk Ni+1 jeweils ein Inputsegment mehr als das Netzwerk Ni umfasst, wobei jedes neuronale Netzwerk Ni beginnend beim neuronalen Netzwerk N1 mittels eines Minimierungsmoduls durch Minimierung eines lokal propagierten Fehlers trainierbar ist, und wobei das rekursive System von neuronalen Netzwerken mittels einem Minimierungsmodul durch Minimierung eines global propagierten

Fehlers basierend auf den lokalen Fehlern der neuronalen Netzwerke Ni trainierbar ist. Diese Ausführungsvariante hat u. a. den Vorteil, dass die rekursiv erzeugten neuronalen Netzwerke mittels des globalen Fehlers zusätzlich optimiert werden können. U. a. ist es die Kombination der Rekursiven Erzeugung der neuronalen Netzwerkstruktur mit einer doppelten Minimierung mittels lokal propagiertem Fehler und global propagierten Fehler, welches die Vorteile dieser Ausführungsvariante ergibt.

In einer anderen Ausführungsvariante ist der Outputlayer des neuronalen Netzwerkes Ni mit mindestens einem Inputsegment des Inputlayers des neuronalen Netzwerkes NI+, zugeordnet verbunden. Diese Ausführungsvariante hat u. a. den Vorteil, dass das System von neuronalen Netzwerken wiederum als neuronales Netzwerk aufgefasst werden kann. Damit können Teilnetzwerke eines ganzen Netzwerkes lokal gewichtet werden und auch bei einem globalen Lernen durch das System mittels den entsprechenden Datensätzen in ihrem Verhalten kontrolliert und überwacht werden. Dies war bis anhin im Stand der Technik so nicht möglich.

An dieser Stelle soll festgehalten werden, dass sich die vorliegende Erfindung neben dem erfindungsgemässen Verfahren auch auf ein System zur Ausführung dieses Verfahrens bezieht. Ferner beschränkt es sich nicht auf das genannte System und Verfahren, sondern bezieht sich ebenso auf rekursiv geschachtelte Systeme von neuronalen Netzwerken und ein Computerprogrammprodukt zur Realisierung des erfindungsgemässen Verfahrens.

Nachfolgend werden Ausführungsvarianten der vorliegenden Erfin- dung anhand von Beispielen beschrieben. Die Beispiele der Ausführungen werden durch folgende beigelegte Figuren illustriert : Figur 1 zeigt ein Blockdiagramm, welches schematisch die Trainings- bzw. Bestimmungsphase oder Präsentationsphase eines neuronalen Netzwerkes zur Bestimmung des Ereigniswertes P2, 5, f eines Ereignisses Pf in einer oberen 5x5 Matrix, d. h. bei K=5, wiedergibt. Die gestrichelte Linie T gibt

die Trainingsphase an und die ausgezogene Linie R die Bestimmungsphase nach dem Lernen.

Figur 2 zeigt ebenfalls ein Blockdiagramm, welches wie Fig. 1 schematisch die Trainings-bzw. Bestimmungsphase eines neuronalen Netzwerkes zur Bestimmung des Ereigniswertes P3, 4, f für das dritte Anfangsjahr wiedergibt.

Figur 3 zeigt ein Blockdiagramm, welches wie Fig. 1 schematisch die Trainings-bzw. Bestimmungsphase eines neuronalen Netzwerkes zur Bestimmung des Ereigniswertes P3, 5, f für das dritte Anfangsjahr wiedergibt.

Figur 4 zeigt ein Blockdiagramm, welches schematisch nur die Trainingsphase zur Bestimmung von P3, 4, f und P3, 5, f zeigt, wobei die berechneten Werte P3, 4, f zum Trainieren des Netzwerkes zur Bestimmung von P3, 5, f verwendet werden.

Figur 5 zeigt ein Blockdiagramm, welches schematisch die rekursive Erzeugung neuronaler Netzwerke zur Bestimmung der Werte in Zeile 3 einer 5x5 Matrix zeigt, wobei 2 Netzwerke erzeugt werden.

Figur 6 zeigt ein Blockdiagramm, welches schematisch die rekursive Erzeugung neuronaler Netzwerke zur Bestimmung der Werte in Zeile 5 einer 5x5 Matrix zeigt, wobei 4 Netzwerke erzeugt werden.

Figur 7 zeigt ein Blockdiagramm, welches schematisch ebenfalls ein erfindungsgemässes System zeigt, wobei die Trainingsbasis auf die bekannten Ereigniswerte Ajj eingeschränkt ist.

Figur 1 bis 7 illustrieren schematisch eine Architektur, die zur Realisierung der Erfindung verwendet werden kann. In diesem Ausführungsbeispiel umfasst zur automatisierten Erfahrungstarifierung von Ereignissen und/oder Schadensreservierung ein bestimmtes Ereignis Pi, f eines Anfangsjahres i Entwicklungswerte Pikf. Der Index f läuft über alle Ereignisse Pi, f für ein bestimmtes Anfangsjahr i mit f = 1,..., Fj. Der Entwicklungswert Pikf = (Zikf,

Rif,...) ist ein beliebiger Vektor und/oder n-Tupel von Entwicklungsparametern Zikf. Rif,..., welche für ein Ereignis entwickelt werden sollen. So kann z. B. bei Versicherungen für einen Schadensfall Pikf Zikf der Zahlungsstand sein, Rskf der Reservestand, etc. Beliebige weitere relevante Parameter für ein Ereignis sind vorstellbar, ohne dass dies den Schutzbereich der Erfindung berühren würde.

Die Entwicklungsjahre k gehen aus von k=1,.., K und die Anfangsjahre i = 1,.., 1.

K ist das letzt bekannte Entwicklungsjahr. Für das erste Anfangsjahr i = 1 sind alle Entwicklungswerte Pikf vorgegeben. Wie bereits angegeben, sollen für dieses Beispiel die Anzahl Anfangsjahre I und die Anzahl Entwicklungsjahre K gleich sein, d. h. I = K. Es ist aber durchaus vorstellbar, dass I ¢ K, ohne dass das Verfahren oder das System dadurch eingeschränkt würde. Pikf ist also ein n-Tupel bestehend aus der Folge von Punkten und/oder Matrixelementen (Zikn, Rikn,...) mit k = 1, 2,..., K Mit) = K ergibt sich dadurch eine quadratische obere Dreiecksmatrix und/oder Blockdreieckmatrix für die bekannten Entwicklungswerte Pikf

wobei f=1,.., Fi wieder über alle Ereignisse für ein bestimmtes Anfangsjahr i geht. Damit sind die Zeilen der Matrix den Anfangsjahren und die Spalten der Matrix den Entwicklungsjahren zugeordnet. In dem Ausführungsbeispiel soll Pjkf auf das Beispiel von Schadensfällen bei Versicherungen beschränkt werden, da insbesondere das Verfahren bzw. das System z. B. zur Erfahrungstarifierung von Versicherungsverträgen und/oder Schadenexzendenten-Rückversicherungsverträgen sehr geeignet ist. Es muss betont werden, dass die Matrixelemente P, kf seihst wieder Vektoren und/oder Matrixen sein können, womit die obige Matrix zu einer entsprechende Blockmatrix wird. Das erfindungsgemässe Verfahren und System eignet sich jedoch für Erfahrungstarifierung bzw. zur Extrapolation von zeitverzögerten

nichtlinearen Prozessen ganz allgemein. Mit dem Gesagten ist Pikf eine Folge von Punkten (Zjkn. Rikn) mit k = 1, 2,. .., K in der Zahlungs-Reserve-Ebene, von der die ersten K+ 1-i Punkte bekannt sind und die noch unbekannten Punkte (Zi, K+2-i, f, Ri, K+2-i, f) ,..., (Zi, K, f, Ri, K, f), prognostiziert werden sollen. Teilt man für diese Beispiel ! P, kf nach Zahlungsebene und die Reserveebene auf, erhält man analog für die Zahlungsebene die Dreiecksmatrix und für die Reserveebene die Dreiecksmatrix Bei der Erfahrungstarifierung von Schadensfällen ist somit die Entwicklung jedes einzelnen Schadensfalls fi vom Zeitpunkt der Schadensmeldung im Anfangsjahr i bis zum aktuellen Stand (aktuelles Entwicklungsjahr k) oder bis zur Regulierung bekannt. Diese Information kann in einer Datenbank abgespeichert sein, welche Datenbank z. B. über ein Netzwerk mittels einer Recheneinheit abgerufen werden kann. Die Datenbank kann jedoch auch direkt über einen internen Datenbus des erfindungsgemässen Systems zugreifbar sein oder anders ausgelesen werden.

Um die Daten im Beispiel der Schadensfälle zu verwenden, werden die Dreiecksmatrizen in einem ersten Schritt normiert, d. h. die Schadenswerte müssen erst in Relation zum zugeordneten Zeitpunkt mittels der entsprechenden Inflationswerte vergleichbar gemacht werden. Der Inflationsindex kann ebenfalls aus entsprechenden Datenbanken ausgelesen werden oder mittels Eingabeeinheiten dem System eingegeben werden. Der Inflationsindex für ein Land kann z. B. folgendermassen aussehen : Jahr Inflationsindex Jährliche lnflationswert 1989 100 1. 000 1990 105. 042 1. 050 1991 112. 920 1. 075 1992 121. 429 1. 075 1993 128. 676 1. 060 1994 135. 496 1. 053 1995 142. 678 1. 053 1996 148. 813 1. 043 1997 153. 277 1. 030 1998 157. 109 1. 025 1999 163. 236 1. 039 2000 171. 398 1. 050 2001 177. 740 1. 037 2002 185. 738 1. 045

Weitere Normierungsfaktoren sind ebenso vorstellbar, wie z. B. regionale Abhängigkeiten etc. Werden Schadensfälle länderübergreifend verglichen bzw. extrapoliert, kommen entsprechende Länderabhängigkeiten dazu. Für den allgemeinen, nicht versicherungsspezifischen Fall kann sich die Normierung auch auf Abhängigkeiten, wie z. B. das mittlere Alter bei Populationen von Lebewesen, Natureinflüssen etc. etc. beziehen.

Zur automatisierten Bestimmung der Entwicklungswerte Pi, K+2-1, f......

Pi, K, f = (Zi,K+2-i,f, Ri,K+2-i,f),...,(Zi,K,f, Ri,K, f) umfasst das System und/oder Verfahren mindestens ein neuronales Netzwerk. Als neuronale Netzwerke

können z. B. konventionelle statische und/oder dynamische neuronale Netzwerke, wie beispielsweise feedforward (heteroassoziative) Netzwerke wie ein Perceptron oder ein Multi-Layer-Perceptron (MLP) gewählt werden, aber auch andere Netzwerkstrukturen, wie z. B. rekurrente Netzwerkstrukturen, sind vorstellbar. Die unterschiedliche Netzwerkstruktur der feedforward Netze im Gegensatz zu Netzwerke mit Rückkopplung (rekurrente Netzwerke) bestimmt, in welcher Art Informationen durch das Netzwerk verarbeitet werden. Im Falle eines statischen neuronalen Netzwerkes soll die Struktur die Nachbildung statischer Kennfelder mit ausreichender Approximationsgüte gewährleisten. Für dieses Ausführungsbeispiel seien als Beispiel Multi-Layer-Perceptrons gewählt.

Ein MLP besteht aus mehreren Neuronenschichten mit mindestens einem Inputlayer und einem Outputlayer. Die Struktur ist strikt vorwärts gerichtet und gehört zur Gruppe der Feed-Forward-Netzen. Neuronale Netzwerke bilden ganz allgemein ein m-dimensionales Eingabesignal auf ein n-dimensionales Ausgabesignal ab. Die zu verarbeitende Information wird im hier betrachteten Feedforward-Netzwerk von einer Schicht mit Inputneuronen, dem Inputlayer, aufgenommen. Die Inputneuronen verarbeiten die Eingangssignale und geben sie über gewichtete Verbindungen, sog. Synapsen, an eine oder mehrere verdeckte Neuronenschichten, den Hiddenlayers, weiter. Von den Hiddenlayers wird das Signal ebenfalls mittels gewichteter Synapsen auf Neuronen eines Outputlayers übertragen, welcher ihrerseits das Ausgangssignal des neuronalen Netzwerkes generieren. In einem vorwärtsgerichteten, vollständig verbundenen MLP ist jedes Neuron eines bestimmten Layers mit allen Neuronen des nachfolgenden Layers verbunden. Die Wahl der Anzahl von Layers und Neuronen (Netzknoten) in einem bestimmten Layer ist wie üblich dem entsprechenden Problem anzupassen. Die einfachste Möglichkeit ist die ideale Netzstruktur empirisch zu ermitteln. Dabei ist zu beachten, dass bei einer zu gross gewählten Anzahl von Neuronen das Netzwerk anstatt zu lernen, rein abbildend wirkt, während es bei einer zu kleinen Anzahl von Neuronen zu Korrelationen der abgebildeten Parameter kommt. Anders ausgedrückt ist es so, dass wenn die Anzahl der Neuronen zu klein gewählt wird, dann kann die Funktion möglicherweise nicht dargestellt werden. Mit der Erhöhung der Anzahl der versteckten Neuronen steigt jedoch auch die Anzahl der unabhängigen Variablen in der Fehlerfunktion. Dies führt zu mehr lokalen Minima und der höheren Wahrscheinlichkeit in genau einer dieser Minima zu landen. Im

Spezialfall des Backpropagation kann dieses Problem z. B. mittels Simulated Annealing mindestens minimiert werden. Beim Simulated Annealing wird den Zuständen des Netzes eine Wahrscheinlichkeit zugeordnet. In der Analogie zum Kühlen von flüssiger Materie, aus denen Kristalle entstehen, wird eine große Anfangstemperatur T gewählt. Diese wird nach und nach verkleinert, je kleiner umso langsamer. In der Analogie der Bildung von Kristallen aus Flüssigkeit geht man davon aus, dass falls man die Materie zu schnell abkühlen lässt, die Moleküle sich nicht gemäss der Gitterstruktur anordnen. Der Kristall wird unrein und an den betroffenen Stellen instabil. Um dies zu verhindern, lässt man die Materie nun so langsam abkühlen, dass die Moleküle immer noch genügend Energie haben, um aus einen lokalen Minimum herauszuspringen.

Bei den neuronalen Netzen wird nichts anderes gemacht : Es wird zusätzlich die Größe T in einer leicht veränderten Fehlerfunktion eingeführt. Diese konvergiert dann im Idealfall gegen ein globales Minimum.

Für die Anwendung zur Erfahrungstarifierung haben sich bei MLP neuronale Netzwerke mit einer mindestens dreischichtigen Struktur als sinnvoll erwiesen. Das heisst, dass die Netzwerke mindestens einen Inputlayer, einen Hiddenlayer und einen Outputlayer umfassen. Innerhalb jedes Neurons finden die drei Verarbeitungsschritte Propagierung, Aktivierung und Ausgabe statt. Als Ausgang des i-ten Neurons der k-ten Schicht ergibt sich wobei z. B. für k=2, als Bereich der Laufvariable j=1, 2,. .., Ni gilt, mit N1 wird die Anzahl der Neuronen des Layers k-1. w als Gewicht und b als Bias (Schwellwert) bezeichnet. Der Bias b kann je nach Anwendung für alle Neuronen eines bestimmten Layers gleich oder unterschiedlich gewählt sein.

Als Aktivierungsfunktion kann z. B. eine log-sigmoidale Funktion gewählt werden, wie Die Aktivierungsfunktion (oder Transferfunktion) wird in jedem Neuron eingesetzt. Andere Aktivierungsfunktionen wie Tangentialfunktionen

etc. sind jedoch erfindungsgemäss ebenfalls möglich. Beim Backpropagation- Verfahren ist jedoch darauf zu achten, dass eine differenzierbare Aktivierungsfunktion, wie z. B. eine sigmoide Funktion, da dies Voraussetzung für das Verfahren ist. D. h. also z. B. binäre Aktivierungsfunktion wie z. B. fifallsjoO 1 Ofallsx gehen für das Backpropagation Verfahren nicht. In den Neuronen der Ausgangsschicht werden die Ausgänge des letzten Hiddenlayers gewichtet aufsummiert. Die Aktivierungsfunktion des Outputlayers kann auch linear sein.

Die Gesamtheit der Gewichtungen Wik-und Bias Bk zusammengefasst in den Parameter-bzw. Wichtungsmatrizen bestimmen das Verhalten der neuronalen Netzstruktur Damit ergibt sich Die Art und Weise, wie das Netzwerk ein Eingabesignal auf ein Ausgabesignal abbilden soll, d. h. die Bestimmung der gewünschten Gewichte und Bias des Netzwerkes, wird erreicht, indem das Netzwerk mittels Trainingsmuster trainiert wird. Der Satz der Trainingsmuster (Index N) besteht aus dem Eingangssignal <BR> <BR> <BR> YN u <BR> = [y1µ, y2µ,...,yN1µ] und einem Ausgangssignal 1 = [u1µ, u2µ,...,uN1µ In diesem Ausführungsbeispiel mit der Erfahrungstarifierung von Schadensfällen umfassen die Trainingsmuster die bekannten Ereignisse P ;, f mit

den bekannten Entwicklungswerten Pjkf für alle k, f und i. Die Entwicklungswerte der zu extrapolierenden Ereignisse können dabei natürlich zum Training der neuronalen Netzwerke nicht verwendet werden, da zu ihnen der entsprechende Outputwert fehlt.

Zu Beginn des Lernvorgangs kann die Initialisierung der Gewichte der Hiddenlayers, in diesem Ausführungsbeispiel also der Neuronen, z. B. mit einer log-sigmoidale Aktivierungsfunktion, z. B. nach Nguyen-Widrow (D.

Nguyen, B. Widrow,"Improving the Learning Speed of 2-Layer Neural Networks by Choosing Initial Values of Adaptive Weights", International Joint Conference of Neural Networks, vol 3, pp 21-26, July 1990) durchgeführt werden. Falls für die Neuronen des Outputlayers eine lineare Aktivierungsfunktion gewählt wurde, könne die Gewichte z. B. mittels eines symmetrischen Zufallsgenerators initialisiert werden. Zum Training des Netzwerkes können verschiedene Lernverfahren des Standes der Technik verwendet werden, wie z. B. das Backpropagation-Verfahren, Learning Vector Quantization, Radial Basis Funktion, Hopfield-Algorithmus oder Kohonen-Algorithmus etc. Die Aufgabe des Trainingsverfahrens besteht darin, die Synapsengewichte wlj und Bias b ;, innerhalb der Wichtungsmatrix W bzw. der Biasmatrix B so zu bestimmen, dass die Eingabemuster YP auf die entsprechenden Ausgabemuster UP abgebildet werden. Zur Beurteilung des Lernstadiums kann z. B. der absolute quadratische Fehler i P m p 1 zizi It-1 verwendet werden. Der Fehler Err berücksichtigt dabei alle Muster Pikf der Trainingsbasis, bei welchen die effektiven Ausgabesignale Ue. von den in der Trainingsbasis vorgegebenen Sollreaktionen uSzO"zeigen. Für dieses Ausführungsbeispiel soll als Lernverfahren das Backpropagation-Verfahren gewählt werden. Das Backpropagation-Verfahren ist ein rekursives Verfahren zur Optimierung der Gewichtsfaktoren wi, j. Bei jedem Lernschritt wird nach dem Zufallsprinzip ein Eingabemuster YP ausgewählt und durch das Netz propagiert (Forwardpropagation). Mittels der oben beschriebenen Fehlerfunktion Err wird aus dem vom Netzwerk generierten Ausgabesignal mit der in der Trainingsbasis vorgegebenen Sollreaktion USOII der Fehler ErrF auf das

präsentierte Eingabemuster bestimmt. Die Änderungen der einzelnen Gewichte wij nach der Präsentation des p-ten Trainingsmusters sind dabei proportional zur negativen partiellen Ableitung des Fehlers Err'2 nach dem Gewicht wij (sog.

Gradientenabstiegsverfahren) Mit Hilfe der Kettenregel können aus der partiellen Ableitung die als Backpropagation-Regel bekannten Adaptionsvorschriften für die Elemente der Wichtungmatrix bei der Präsentation des u-ten Trainingsmusters hergeleitet werden. mit ß . m//,,-, für den Outputlayer bzw. für die Hiddenlayers. Der Fehler wird dabei beginnend mit dem Outputlayer in umgekehrter Richtung durch das Netzwerk propagiert (Backpropagation) und gewissermassen nach dem Verursacherprinzip auf die einzelnen Neuronen aufgeteilt. Der Proportionalitätsfaktor s wird als Lernfaktor bezeichnet. Während der Trainingsphase wird einem neuronalen Netzwerk eine begrenzte Anzahl an Trainingsmustern präsentiert, welche die zu erlernende Abbildung ausreichend genau charakterisieren. In diesem Ausführungsbeispiel mit der Erfahrungstarifierung von Schadensfällen können die Trainingsmuster alle bekannten Ereignisse Pi, f mit den bekannten Entwicklungswerten Pikf für alle k, f und i umfassen. Aber auch eine Auswahl aus den bekannten Ereignissen Pj, f ist vorstellbar. Wird dem Netzwerk anschliessend ein Eingabesignal präsentiert, welches nicht exakt mit den

Mustern der Trainingsbasis übereinstimmt, so inter-bzw. extrapoliert das Netzwerk im Rahmen der erlernten Abbildungsfunktion zwischen den Trainingsmustern. Diese Eigenschaft wird als Generalisierungsfähigkeit der Netzwerke bezeichnet. Es ist charakteristisch für neuronale Netzwerke, dass neuronale Netzwerke eine gute Fehlertoleranz besitzen. Dies ist ein weiterer Vorteil gegenüber den Systemen des Standes der Technik. Da neuronale Netzwerke eine Vielzahl von (teilweise redundanten) Eingangssignalen auf das/die gewünschten Ausgabesignal/e abbilden, erweisen sich die Netzwerke als robust gegenüber Ausfall einzelner Eingangssignale bzw. gegenüber Signalrauschen. Eine weitere interessante Eigenschaft neuronaler Netzwerke ist deren Lernfähigkeit. Prinzipiell ist es daher möglich, ein einmal trainiertes System während des Betriebs permanent/periodisch nachlernen oder anpassen zu lassen, was ebenfalls ein Vorteil gegenüber den Systemen des Standes der Technik ist. Für das Lernverfahren können natürlich auch andere Verfahren verwendet werden, wie z. B. ein Verfahren nach Levenberg- Marquardt (D. Marquardt,"An Algorithm for least square estimation of non- linear Parameters", J. Soc. Ind. Appl. Math, pp 431-441,1963 sowie M. T. Hagan, M. B. Menjaj, "Training Feedforward Networks with the Marquardt Algorithm", IEEE-Transactions on Neural Networks, Vol 5, Nr 6, pp 989-993, November 1994). Das Levenberg-Marquardt-Verfahren ist eine Kombination der Gradient- Methode und des Newton-Verfahrens und hat den Vorteil, dass es schneller konvergiert als das oben erwähnte Backpropagation Verfahren, jedoch eine höhere Speicherkapazität während der Trainingsphase benötigt.

In dem Ausführungsbeispiel werden zur Bestimmung der Entwicklungswerte Pi, K-(ij) +1, f für jedes Anfangsjahr i iterativ (i-1) neuronale Netzwerke Ni, j erzeugt. j gibt für ein bestimmtes Anfangsjahr i die Anzahl Iterationen an mit j=1,..., (i-1). Damit werden für das i-te Anfangsjahr i-1 neuronale Netzwerke Ni, j erzeugt. Das neuronale Netzwerk Ni j+1 hängt dabei rekursiv vom neuronalen Netzwerk Nij ab. Zum Gewichten, d. h. zum Trainieren, eines bestimmten neuronalen Netzwerkes Ni, j können z. B. alle Entwicklungswerte Pp, q, f mit p=1,..., (i-1) und q=1,..., K- (i-j) der Ereignisse oder Schadensfälle Ppq verwendet werden. Eine eingeschränkte Auswahl kann je nach Anwendung jedoch ebenfalls sinnvoll sein. Die Daten der Ereignisse Ppq können z. B. wie erwähnt aus einer Datenbank ausgelesen werden und über

eine Recheneinheit dem System präsentiert werden. Ein errechneter Entwicklungswert Pj, k, f kann z. B. dem entsprechenden Ereignis Pi, f eines Anfangsjahres i zugeordnet werden und selbst zur Bestimmung des nächsten Entwicklungswertes (z. B. Pi, k+1, f) dem System präsentiert werden (Fig. 1 bis 6) oder die Zuordnung findet erst nach Ende der Bestimmung aller gesuchten Entwicklungswerte P statt (Fig. 7).

Im ersten Fall (Fig. 1 bis 6) werden, wie beschrieben, einem bestimmten Ereignis Pi, f eines Anfangsjahres i Entwicklungswerte Pi, k, f mit Entwicklungsjahr k=1,. ., K zugeordnet, wobei für die Anfangsjahre i = 1,.., K und K das letzt bekannte Entwicklungsjahr ist. Für das erste Anfangsjahr i=1 sind alle Entwicklungswerte Pl, k, f bekannt. Für jedes Anfangsjahr i=2,. ., K mittels Iterationen j=1,. ., (i-1) wird bei jeder Iteration j in einem ersten Schritt ein neuronales Netzwerk Ni,j mit einem Inputlayer mit K-(ij) Inputsegmenten und einem Outputlayer erzeugt. Jedes Inputsegment umfasst mindestens ein Inputneuron bzw. mindestens so viele Inputneurone, um das Inputsignal für einen Entwicklungswert Pi, k, f zu erhalten. Die neuronalen Netzwerke werden automatisch durch das System erzeugt und können hardwaremässig oder softwaremässig realisiert sein. In einem zweiten Schritt wird das neuronale Netzwerk N, j mit den verfügbaren Ereignissen Ej, f aller Anfangsjahre m=1,.., (i-1) mittels der Entwicklungswerte Pm, 1.. K- (i-j). f als Input und Pm, 1. K- -j)+1,f als Output gewichtet. In einem dritten Schritt werden mittels des neuronalen Netzwerkes Ni, j die Outputwerte Oj, f für alle Ereignisse Pi, f des Anfangsjahres i bestimmt, wobei der Outputwert Oj, f dem Entwicklungswert Pj, K (ij+1, f des Ereignisses Pi, f zugeordnet wird und wobei das neuronale Netzwerk Ni,j rekursiv vom neuronalen Netzwerk Ni, j+1 abhängt. Fig. 1 zeigt die Trainings-bzw.

Präsentationsphase eines neuronalen Netzwerkes zur Bestimmung des Ereigniswertes P2, 5, f eines Ereignisses Pf in einer oberen 5x5 Matrix, d. h. bei K=5. Die gestrichelte Linie T gibt die Trainingsphase an und die ausgezogene Linie R die Bestimmungsphase nach dem Lernen. Figur 2 zeigt das Gleiche für das dritte Anfangsjahr zur Bestimmung von P3, 4, f (B34) und Figur 3 zur Bestimmung von P3, 5, f. Figur 4 zeigt nur die Trainingsphase zur Bestimmung von P3, 4, f und P3, 5, f, wobei die erzeugten Werte P3,4, f (B34) zum Trainieren des Netzwerkes zur Bestimmung von P3, 5, f verwendet werden. Aij gibt in den Figuren die bekannten Werte an, während Bij mittels der Netzwerke bestimmte

Werte anzeigt. Figur 5 zeigt die rekursive Erzeugung der neuronalen Netzwerke zur Bestimmung der Werte in Zeile 3 einer 5x5 Matrix, wobei i-1 Netzwerke erzeugt werden, also 2. Figur 6 zeigt dagegen die rekursive Erzeugung der neuronalen Netzwerke zur Bestimmung der Werte in Zeile 3 einer 5x5 Matrix, wobei wiederum i-1 Netzwerke erzeugt werden, also 4.

Es ist wichtig darauf hinzuweisen, dass als Ausführungsbeispiel die Zuordnung der mittels des Systems erzeugten Ereigniswerte Bij auch erst nach der Bestimmung aller gesuchten Entwicklungswerte P stattfinden kann. Die neu bestimmten Werte stehen dann nicht als Inputwerte zur Bestimmung weiterer Ereigniswerte zur Verfügung. Figur 7 zeigt ein solches Verfahren, wobei die Trainingsbasis auf die bekannten Ereigniswerte Aij eingeschränkt ist. Anders ausgedrückt können die neuronalen Netzwerk Ni, j für gleiche j identisch sein, wobei für ein Anfangszeitintervall i+1 das neuronales Netzwerk Nj+1J=j erzeugt wird und alle anderen neuronalen Netzwerke Nj+ijo Netzwerken früheren Anfangszeitintervallen entsprechen. D. h. ein Netzwerk, das einmal zur Berechnung eines bestimmten Ereigniswertes Pij erzeugt wurde, wird für alle Eregniswerte mit einem Anfangsjahr a>i für die Werte Pij mit gleichem j weiterverwendet.

Unterschiedliche neuronalen Netzwerke können im Falle der hier diskutierten Versicherungsfälle z. B. basierend auf unterschiedlichen Daten trainiert werden. Z. B. können die Netzwerke basierend auf den bezahlten Forderungen, basierend auf den angefallenen Forderungen, basierend auf den bezahlten und noch ausstehenden Forderungen (Reserven) und/oder basierend auf den bezahlten und angefallenen Forderungen trainiert werden.

Das beste neuronale Netzwerk für jeden Fall kann z. B. mittels Minimierung des absoluten mittleren Fehlers der vorhergesagten Werte und den wirklichen Werte bestimmt werden. Z. B. lässt sich das Verhältnis des mittleren Fehlers zum mittleren vorhergesagten Wert (der bekannten Forderungen) auf die vorhergesagten Werte der modellierten Werte anwenden, um den Fehler zu erhalten. Für den Fall, dass die vorhergesagten Werte der vorgängigen Anfangsjahre zur Berechung der folgenden Anfangsjahre mitverwendet wird, muss der Fehler natürlich entsprechend kumuliert werden. Dies kann z. B.

erreicht werden, indem die Quadratwurzel der Summe der Quadrate der individuellen Fehler jedes Modells verwendet wird.

Um eine weitere Abschätzung der Qualität bzw. des Trainingstandes der neuronalen Netzwerke zu erhalten, können z. B. die vorhergesagten Werte auch mittels der genannten Pareto-Verteilung gefittet werden. Diese Abschätzung kann ebenfalls verwendet werden, um z. B. das beste neuronale Netzwerk von mit (wie im letzten Abschnitt beschrieben) unterschiedlichen Datensets trainierten neuronalen Netzwerken (z. B. bezahlten Forderungen, ausstehenden Forderungen etc. ) zu bestimmen. Damit folgt mit der Pareto- Verteilung

mit T(i) = Th((1 - P(i)) (-i/α)) wobei a der Fit-Parameter, Th der Schwellparameter (Threshold Value), T (i) der theoretische Wert der i-ten Zahlungsforderung, O (i) der beobachtete Wert der i-ten Zahlungsforderung, E (i) ist der Fehler der i-ten Zahlungsforderung und P (i) ist die kummulierte Wahrscheinlichkeit der i-ten Zahlungsforderung mit und P (i + 1) = P (i) + 1 n und n die Anzahl Zahlungsforderungen. Für das hier beschriebene Ausführungsbeispiel wurde der Fehler der Systeme basierend auf den vorgeschlagenen neuronalen Netzwerken mit dem Chain-Ladder-Verfahren anhand von Kraftfahrzeugversicherungsdaten verglichen. Die Netzwerke wurden einmal mit den bezahlten Zahlungsforderungen und einmal mit den angefallenen Zahlungsforderungen verglichen. Um die Daten zu Vergleichen, wurden die einzelnen Werte in den Entwicklungsjahren kumuliert. Der direkte Vergleich zeigte für die gewählten Beispielsdaten pro 1000 folgende Resultate System basierend auf neuronalen Chain-Ladder-Verfahren Netzwerken Anfangs Bezahlte Angefallenen Bezahlte Angefallenen jahr Forderungen Forderungen Forderungen Forderungen (kumulierte Werte) (kumulierte Werte) (kumulierte Werte) (kumulierte Werfe) 1996 369. 795 i 5.333 371.551 6.929 387.796 ~ n/a 389. 512 n/a 1997 769. 711 6. 562 789.997 ~ 8.430 812.304 i 0.313 853.017 15.704 1998 953. 353 40. 505 953. 353 30. 977 1099. 710 ~ 6. 522 1042.908 ~ 32. 551 1999 1142. 874 ~ 84. 947 1440. 038 47. 390 1052. 683 138. 221 1385. 249 74. 813 2000 864. 628 ~ 99. 970 1390. 540 ~ 73. 507 1129. 850 ~ 261. 254 1285. 956 ~ 112. 668 2001 213. 330i72. 382 288. 890i80. 617 600. 419 407. 718 1148. 555 439. 112

Der hier gezeigte Fehler entspricht der Standardabweichung, d. h. dem 01-Fehler, der angegebenen Werte. Besonders für spätere Anfangsjahre, d. h. Anfangsjahre mit grösserem i zeigt das System basierend auf neuronalen Netzwerken bei der Bestimmung der Werte einen klaren Vorteil gegenüber den Verfahren des Standes der Technik, indem die Fehler im wesentlichen stabil bleiben. Dies ist beim Stand der Technik nicht der Fall, da der Fehler dort für zunehmende i nicht proportional zunimmt. Für grössere Anfangsjahre i zeigt sich eine deutliche Abweichung in der Höhe der kumulierten Werte zwischen den Chain Ladder Werten und denen, welche mit dem erfindungsgemässen Verfahren erhalten wurden. Diese Abweichung beruht auf der Tatsache, dass beim Chain Ladder Verfahren zusätzlich die IBNYR (Incurred But Not Yet Reported) Schäden berücksichtigt werden. Die IBNYR Schäden müssten zu den obengezeigten Werten des erfindungsgemässen Verfahrens addiert werden. Z. B. kann zur Berechnung von Portefeuillereserven die IBNYR Schäden mittels einer separaten Entwicklung (z. B. Chain Ladder) berücksichtigt werden. Bei der Reservierung von Einzelschäden oder bei der Ermittlung von Schadenshöhenverteilungen spielen die IBNYR Schäden jedoch keine Rolle.