Ereigniszeitanalyse
Die Ereigniszeitanalyse (auch Verweildaueranalyse, Verlaufsdatenanalyse, Ereignisdatenanalyse, englisch survival analysis, analysis of failure times und event history analysis) ist ein Instrumentarium statistischer Methoden, bei der die Zeit bis zu einem bestimmten Ereignis („time to event“) zwischen Gruppen verglichen wird, um die Wirkung von prognostischen Faktoren, medizinischer Behandlung oder schädlichen Einflüssen zu schätzen. Das Ereignis kann dabei ein bevorstehender Tod sein, jedoch auch beliebige andere Endpunkte, wie Heilung, Erkrankung oder Eintreten einer Komplikation kommen infrage. Beispiele für eine solche Analyse sind der Kaplan-Meier-Schätzer, die Cox-Regression oder das Modell für beschleunigte Ausfallzeiten. Eine zentrale Größe ist die Hazardrate. Bezeichnungen für dieses VerfahrenDas Verfahren wurde von unterschiedlichen Autoren abweichend bezeichnet. Weil es verschiedene Anwendungszwecke gibt, sind heute noch verschiedene Begriffe in Gebrauch, die gleichwertig sind und oft synonym verwendet werden. Das Grundverfahren ist immer gleich.
AnwendungsbereicheDieses Verfahren kann immer eingesetzt werden, wenn eine Mortalität vorliegt, d. h. ein sukzessives Ausscheiden von Messobjekten aus der statistischen Erfassung. Es muss sich dabei nicht um den Tod handeln, sondern auch um den Ausfall mechanischer Systeme oder Eintritt in den Ruhestand. Auch beim Eintreten positiver Ereignisse, d. h. neuer Ereignisse für die es bisher keine Messgrundlage gab, kann das Verfahren angewendet werden. (Geburt des ersten Kindes, Auftreten erster technischer Probleme oder Garantiefälle) Beispiele für eine Ereigniszeitanalyse: Welcher Anteil einer Population wird nach einer gegebenen Zeit noch leben? Mit welcher Rate werden die Überlebenden dann sterben? Welche Eigenschaften oder Einflüsse erhöhen oder verringern die Überlebenswahrscheinlichkeit? Zuerst ist es notwendig, Ereigniszeit (Lebenszeit) zu definieren. Für biologische Systeme endet die Lebenszeit mit dem Tod. Schwieriger ist es mit der mechanischen Zuverlässigkeit. Ausfälle sind oft nicht klar definiert und können partiell sein. Oft ist es nur graduelles Versagen, das sich nicht so leicht zeitlich festlegen lässt. Ähnliche Schwierigkeiten treten bei anderen biologischen Ereignissen auf. Beispielsweise sind ein Herzanfall oder ein Organversagen schwierig zeitlich festzulegen. Üblicherweise werden nur Ereignisse untersucht, die höchstens einmal pro Subjekt auftreten können. Eine Erweiterung auf wiederholt auftretende Ereignisse ist möglich. Die Ereigniszeitanalyse wird auch zur Untersuchung von Materialermüdung eingesetzt[1]. Grundlegende Größen und KonzepteÜberlebensfunktionDie zentrale Funktion ist die Überlebensfunktion (englisch Survival Function, Survivor Function) und wird mit bezeichnet. Im Bereich technischer Systeme wird für diese Funktion die Bezeichnung Zuverlässigkeitsfunktion (englisch Reliability Function) verwendet und mit bezeichnet: dabei bezeichnet bestimmte Zeitpunkte, repräsentiert die Lebenszeit (die Zeit bis zum Tod bzw. zum Ausfall eines Geräts), und bezeichnet die Wahrscheinlichkeit. Die Überlebensfunktion gibt die Wahrscheinlichkeit an, mit der ein Individuum der Population eine Lebenszeit länger bzw. größer als haben wird.[2] Da zu Beginn einer Analyse () alle interessierenden Individuen noch leben, ist die Wahrscheinlichkeit, diesen „nullten“ Zeitpunkt zu „überleben“ gleich . Falls ein sofortiger Tod oder Ausfall möglich ist, dann kann dieser Startwert auch kleiner als sein. Die Überlebensfunktion muss monoton fallend sein: falls . Ist diese Funktion bekannt, dann sind auch die Verteilungsfunktion und die Dichtefunktion eindeutig definiert. Üblicherweise geht man davon aus, dass mit zunehmender Zeit die Wahrscheinlichkeit, den jeweiligen Zeitpunkt zu überleben, gegen Null geht, d. h.: . Ein Grenzwert größer als Null würde „ewiges Leben“ implizieren. Anders ausgedrückt sind und gegenläufig. Je mehr Zeit vergeht, desto wahrscheinlicher wird das Eintreten eines bestimmten Ereignisses. Die Überlebensfunktion beginnt als Funktion bei mit dem Wert und strebt mit der Zeit zum Wert (wobei meistens nicht erreicht wird, da die Betrachtung zu einem bestimmten Zeitpunkt beendet wird). Grafisch kann man sich als von aus in Richtung abwärts führende Treppenfunktion vorstellen, also monoton fallend, wobei die einzelnen Stufen unterschiedlich steil bzw. breit sein können. Die Steilheit der Treppenstufen ergibt sich aus der Anzahl der sterbenden Individuen, und ihre Breite durch die Anzahl der vergangenen Zeitpunkte . Je breiter und flacher solche Treppenstufen sind, desto höher ist die Überlebenswahrscheinlichkeit der Individuen.[3] Ereigniszeit-Verteilungsfunktion und EreignisdichtefunktionAus der Überlebensfunktion lassen sich verwandte Größen ableiten. Die Ereigniszeit-Verteilungsfunktion, in technischen Bezug auch als Ausfallswahrscheinlichkeit (englisch Probability of failure) bezeichnet und mit F abgekürzt, ist die komplementäre Funktion zur Überlebensfunktion: und daher gilt auch . Die erste Ableitung von , die Ereignisdichtefunktion oder Ausfallsdichte (englisch failure density function), wird mit bezeichnet:
Die Ereignisdichtefunktion ist die Rate des betrachteten Ereignisses pro Zeitspanne. Hazardfunktion und kumulierte HazardfunktionDie Ausfallrate, (speziell in der Überlebenszeitanalyse auch Hazardrate oder Hazardfunktion genannt und mit bezeichnet) ist definiert als Rate, mit der ein Ereignis zum Zeitpunkt eintritt unter der Voraussetzung, dass es bis zum Zeitpunkt t noch nicht eingetreten ist:
englisch force of mortality ist ein Synonym für die Hazardfunktion, welches speziell in der Demografie verwendet wird. Die Ausfallrate muss stets positiv sein, und das Integral über muss unendlich sein. Die Hazardfunktion kann anwachsen oder fallen, sie braucht weder monoton noch stetig zu sein. Alternativ kann die Hazardfunktion auch durch die kumulative Hazardfunktion ersetzt werden:
damit ist heißt kumulative Hazardfunktion da
Sie beschreibt die „Ansammlung“ von Hazard (Risiko) im Laufe der Zeit. Aus folgt, dass mit wachsender Zeit unbegrenzt wächst falls gegen Null geht. Weiter folgt, dass nicht zu stark fallen darf, weil sonst die kumulierte Hazardfunktion gegen einen endlichen Wert konvergiert. Beispielsweise ist keine Hazardfunktion irgendeiner Ereigniszeitverteilung, da das Integral konvergiert. Beispiel: die Ausfallrate für eine Überlebensfunktion ist eine Konstante . Aus der Überlebensfunktion abgeleitete GrößenDie verbleibende Lebenszeit zu einem Zeitpunkt t0 ist die bis zum Tod bzw. Ausfall verbleibende Zeit, also . Die zukünftige Lebenserwartung ist der Erwartungswert der verbleibenden Lebenszeit. Die Ereignisdichtefunktion für den Zeitpunkt unter der Voraussetzung des Überlebens bis ist gerade
Damit ist die zukünftige Lebenserwartung
Für reduziert sich dies auf die Lebenserwartung bei der Geburt. In Zuverlässigkeitsanalysen wird die Lebenserwartung (Mean Time To Failure) und die mittlere Restlebenszeit genannt. Das Alter, in dem der Anteil der Überlebenden einen vorgegebenen Wert q erreicht, kann man über die Gleichung S(t) = q ermitteln. t ist das gesuchte Quantil. Meist ist man an Größen wie dem Median der Lebensdauer q = 1/2 oder anderen Quantilen wie q = 0,90 oder q = 0,99 interessiert. ZusammenhangIn folgender Darstellung ist tabellarisch der mathematische Zusammenhang zwischen den verschiedenen Kenngrößen dargestellt:
Beispiele für ÜberlebensfunktionenFür Ereigniszeitmodelle wählt man zuerst eine grundlegende Überlebensfunktion aus. Es ist relativ einfach eine Verteilungsfunktion durch eine andere zu ersetzen, um die Auswirkungen zu studieren. An der grundlegenden Theorie ändert sich nichts. Bei der Wahl der konkreten Verteilung spielen Vorkenntnisse über den konkreten Prozess eine große Rolle. Es ist in etwa analog zur Auswahl der Kopplungsfunktion in verallgemeinerten linearen Modellen. Einige häufig verwendete Funktionen sind im Folgenden aufgelistet.
Dabei bezeichnet die Verteilungsfunktion der Standardnormalverteilung und die Fehlerfunktion. Schätzen der ParameterEreigniszeitmodelle kann man als normale Regressionsmodelle betrachten in der die Ergebnisvariable die Zeit ist. Die Berechnung der Likelihood-Funktion ist kompliziert, da nicht zu jeder Zeit alle Informationen zur Verfügung stehen (siehe zensierte Daten). Zensierte DatenWenn Geburt und Tod bekannt sind, dann ist in diesem Fall der Lebensverlauf eindeutig. Wenn man dagegen nur weiß, dass die Geburt vor einem bestimmten Zeitpunkt stattfand, dann nennt man diesen Datensatz links zensiert. Genauso könnte nur bekannt sein, dass der Tod nach einem bestimmten Datum eintrat. Das ist dann ein rechts zensierter Datensatz. Ein Lebenslauf kann auf diese Weise auch rechts und links zensiert sein (intervallzensiert). Falls eine Person die ein bestimmtes Alter nicht erreicht, überhaupt nicht beobachtet wird, dann ist der Datensatz abgeschnitten (engl.: truncated). Bei einem links zensierten Datensatz wissen wir dagegen zumindest, dass das Individuum existierte. Es gibt einige Standardfälle für zensierte und abgeschnittene Datensätze. Üblich ist ein rechts zensierter Datensatz. Betrachten wir eine Gruppe lebender Subjekte, dann wissen wir, dass sie heute am Leben sind. Wir wissen aber nicht ihren in der Zukunft liegenden Todestag. Links zensierte Daten sind auch üblich. Wir könnten für jedes Subjekt wissen, dass es heute lebt, aber wir kennen nicht den genauen Geburtstag. Abgeschnittene Daten treten in Studien mit verzögertem Anfang auf. Rentner könnten beispielsweise ab dem Alter 70 Jahre beobachtet werden. Über die Personen die vorher gestorben sind, ist nicht einmal deren Existenz bekannt. Likelihood-FunktionDie Likelihood-Funktion für ein Ereigniszeitmodell mit zensierten Daten kann wie folgt definiert werden.[4] Definitionsgemäß ist die Likelihood-Funktion die gemeinsame Wahrscheinlichkeit der Daten bei vorgegebenen Modellparametern. Es ist üblich anzunehmen, dass die Daten unabhängig von den Parametern sind. Dann ist die Likelihood-Funktion das Produkt der Wahrscheinlichkeiten für jede Ereigniszeit. Wir teilen die Daten in vier Kategorien ein: unzensierte, links zensierte, rechts zensierte und intervallzensierte Daten. Wir unterscheiden sie in den Formeln mit „unz.“, „l.z.“, „r.z.“ und „i.z.“: Für eine unzensierte Ereigniszeit mit dem Todesalter verwenden wir
Für links zensierte Daten wissen wir nur, dass der Tod vor einer Zeit eintrat
Für ein rechts zensiertes Individuum wissen wir, dass der Tod nach der Zeit eintritt, also ist Und für intervallzensierte Ereignisse wissen wir, dass der Tod zwischen und eintritt Diskrete EreigniszeitmodelleDiskrete Ereigniszeitmodelle zerlegen die kontinuierliche Lebenszeit in Zeitintervalle, denen jeweils binäre Label (0 oder 1) zugeordnet werden, je nachdem ob ein Ereignis am Ende des Intervalls (in einem gewissen Zeithorizont) eintritt oder nicht. Durch Betrachtung der Ausfallwahrscheinlichkeiten (Übergangswahrscheinlichkeiten von Zustand 0 zum Zustand 1) in der Lebenszeit des i-ten Subjekts im j-ten Zeitintervall kann für rechtszensierte Lebenszeiten folgende Likelihood aufgestellt werden (ähnlich zu Markov-Ketten höherer Ordnung mit beliebig langem Gedächtnis): wobei anzeigt ob zum Zeitpunkt T ein Event vorliegt (1) oder eine zensierte Zeitreihe (0). Obwohl hier keine Unabhängigkeit der Übergangswahrscheinlichkeiten angenommen wurden, führt diese Formatierung der Daten und die Formulierung der Log-Likelihood-Funktion auf die typische Kreuzentropie-Verlustfunktion welche auch bei sonst unabhängigen Ereignissen vorliegt[5]. Kalibrierte binäre Klassifikatoren, welche die Kreuzentropie minimieren sind daher Maximum-Likelihood-Schätzer für die Ausfallwahrscheinlichkeit (Hazard-Funktion)[5]. Diskrete Ereigniszeitmodelle stehen in Verbindung zur empirischen Likelihood[6][7]. Anwendungen
GüteDie Güte von Ereigniszeitmodellen kann mit scoring rules bewertet werden[16]. Siehe auchLiteratur
WeblinksCommons: Ereigniszeitanalyse – Sammlung von Bildern, Videos und Audiodateien
Einzelnachweise
|