Parametrische StatistikDie parametrische Statistik ist ein Zweig der induktiven Statistik. Um mit Hilfe von Daten aus einer Stichprobe Aussagen über eine unbekannte Grundgesamtheit herzuleiten, wird in der induktiven Statistik davon ausgegangen, dass die Beobachtungsdaten Realisierungen von Zufallsvariablen sind. In der parametrischen Statistik wird zusätzlich angenommen, dass die Zufallsvariablen aus einer Familie vorgegebener Wahrscheinlichkeitsverteilungen (oft: der Normalverteilung) stammen, deren Elemente bis auf einen (endlichdimensionalen) Parameter eindeutig bestimmt sind.[1] Die meisten bekannten statistischen Analyseverfahren sind parametrische Verfahren.[2] Im Gegensatz dazu steht die nichtparametrische Statistik. Da deren Verfahren keine Verteilungsannahme bzgl. der Zufallsvariablen erfordern, heißen sie auch verteilungsfrei.[3] BeispielUm eine neue Therapie zur Senkung des Cholesterinspiegels zu testen, werden bei zehn Probanden vor und nach der Behandlung die Cholesterinwerte bestimmt. Es ergeben sich die folgenden Messergebnisse:
Wenn die neue Therapie einen Effekt hat, dann sollte der Mittelwert der Differenzen signifikant von Null abweichen. Der parametrische Test lehnt die Nullhypothese ab, während der nichtparametrische Test diese nicht verwerfen kann. In der Praxis würde man hier natürlich einseitige Tests durchführen. Parametrisches VerfahrenÜblicherweise würde man hier den Zweistichproben-t-Test für abhängige Stichproben einsetzen (Nullhypothese: der Mittelwert der Differenz ist Null). Eine Voraussetzung für diesen Test ist jedoch, dass entweder der Stichprobenumfang größer als 30 ist (Faustregel) oder die Differenzen normalverteilt sind. Sind die Differenzen normalverteilt, kann man zeigen, dass die Teststatistik einer t-Verteilung folgt. Die Differenzen der Messwerte haben das arithmetische Mittel und die Stichprobenstandardabweichung (gerundet). Das ergibt als Prüfwert
Der Nichtablehnungsbereich der Nullhypothese bei einem Signifikanzniveau von ergibt sich zu . Da der Prüfwert außerhalb des Nichtablehnungsbereich der Nullhypothese liegt, muss sie verworfen werden. Nichtparametrisches VerfahrenDie nichtparametrische Alternative hierzu ist der Vorzeichentest. Hier ist die Nullhypothese, dass der Median Null ist. Bei der Normalverteilung stimmen Median und Mittelwert immer überein, dies ist jedoch bei anderen Wahrscheinlichkeitsverteilungen nicht unbedingt der Fall. Hier sind genau drei Differenzen kleiner Null und sieben größer als Null. Die Teststatistik folgt einer Binomialverteilung mit und . Der Nichtablehnungsbereich der Nullhypothese bei einem Signifikanzniveau von ergibt sich zu . Da drei und sieben innerhalb des Nichtablehnungsbereich der Nullhypothese liegen, kann sie nicht verworfen werden. Vorteile und NachteileDie Verfahren der parametrischen Statistik beruhen im Gegensatz zu Methoden der nichtparametrischen Statistik auf zusätzlichen Verteilungsannahmen.[4] Sind diese Annahmen richtig, ergeben sich in aller Regel genauere und präzisere Schätzungen. Sind sie nicht korrekt, so liefern parametrische Verfahren in vielen Fällen schlechte Schätzungen; das parametrische Konzept ist dann nicht robust gegen die Verletzung der Verteilungsannahmen. Andererseits sind parametrische Verfahren oft einfacher und schneller zu berechnen. Manchmal ist eine schnelle Berechnung wichtiger als die Nicht-Robustheit, insbesondere wenn diese bei der Interpretation von Statistiken berücksichtigt wird.[5] BegriffsgeschichteDer Statistiker Jacob Wolfowitz prägte den statistischen Begriff der parametrischen Statistik, um deren Gegenteil zu definieren:
– Jacob Wolfowitz[6] Einzelnachweise
|
Portal di Ensiklopedia Dunia