Dieser Artikel oder Abschnitt bedarf einer grundsätzlichen Überarbeitung. Näheres sollte auf der
Diskussionsseite angegeben sein. Bitte hilf mit, ihn zu
verbessern, und entferne anschließend diese Markierung.
Der Verschiebungssatz (auch Satz von Steiner oder Steinerscher Verschiebungssatz genannt) beschreibt, wie sich die Eigenschaften einer Variablen oder Zufallsvariablen ändern, wenn zu dieser Variable eine Konstante addiert wird. Er besagt, dass sich durch Addition einer Konstante zu einer Variablen oder Zufallsvariablen bestimmte Charakteristika der Verteilung dieser Variable auf vorhersagbare Weise ändern.
Wird zu einer Zufallsvariablen
eine Konstante
addiert und diese modifizierte Variable als
bezeichnet, dann ändern sich bestimmte Momente von
auf vorhersagbare Weise. Die Momente von
können durch eine einfache Formel berechnet werden, die die Momente von
und die hinzugefügte Konstante
berücksichtigt.
Der Verschiebungssatz ermöglicht es die Effekte von konstanten Verschiebungen auf die Verteilung von Variablen oder Zufallsvariablen zu verstehen. Diese Erkenntnis hat viele Anwendungen in der Statistik und Wahrscheinlichkeitstheorie, zum Beispiel bei der Berechnung von durchschnittlichen Werten und Varianzen von veränderten Variablen oder Zufallsvariablen.
Verschiebungssatz
Der Verschiebungssatz für Zufallsvariablen
besagt:
![{\displaystyle E(Y^{k})=E((X+c)^{k})=\sum _{j=0}^{k}{\binom {k}{j}}c^{k-j}E(X^{j})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6849153600c933e7d5102d0ec32c8c2f78d31586)
Dabei ist
, das
te Moment der Zufallsvariablen
,
, das
te Moment der Zufallsvariablen
.
ist der Binomialkoeffizient
über
.
Insbesondere für den Fall
gilt
.
Für die Varianz einer Zufallsvariablen
gilt mit
, d. h.
:
.
Empirische Variante
Für die empirische Version des Verschiebungssatz für
Beobachtungswerten mit
müssen die theoretischen durch die empirischen Momente ersetzt werden, also
bzw.
und dann gilt:
![{\displaystyle M_{Y}^{k}=\sum _{j=0}^{k}{\binom {k}{j}}c^{k-j}M_{X}^{j}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5fb20f28ba79ae0bc72b857ba873feb37adf1123)
Analog zu den Zufallsvariablen kann man für
ableiten mit
:
.
Beispiel mit n Beobachtungswerten
Der Verschiebungssatz wird zunächst am einfachsten Fall vorgeführt: Es seien beispielsweise die Werte
aus einer Stichprobe gegeben. Es wird die Summe der Abweichungsquadrate dieser Werte gebildet:
![{\displaystyle SQ_{x}=\sum _{i=1}^{n}(x_{i}-{\overline {x}})^{2}\ ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/03480898a6983ca26290c08775b0900c7c67d0f2)
wobei
![{\displaystyle {\overline {x}}:={\frac {1}{n}}(x_{1}+x_{2}+\ldots +x_{n})={\frac {1}{n}}\sum _{i=1}^{n}{x_{i}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3ea63cf50b9f1c9dcb1f9b5846a4d19d93126e80)
das arithmetische Mittel der Zahlen ist. Der Verschiebungssatz ergibt sich aus[1]
![{\displaystyle SQ_{x}=\sum _{i=1}^{n}(x_{i}^{2}-2x_{i}{\overline {x}}+{\overline {x}}^{2})=\left(\sum _{i=1}^{n}x_{i}^{2}\right)-2{\overline {x}}\left(\sum _{i=1}^{n}x_{i}\right)+n{\overline {x}}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/11cfd39e6fcb39b499d115e43f72f93d91218273)
.
Rechenbeispiel
Im Rahmen der Qualitätssicherung werden fortlaufend Kaffeepakete gewogen. Für die ersten vier Pakete erhielt man die Werte (in g)
![{\displaystyle 505,500,495,505}](https://wikimedia.org/api/rest_v1/media/math/render/svg/aa1eddb1d97e07ea674269a12ca984255db7ae10)
Das durchschnittliche Gewicht beträgt
![{\displaystyle {\overline {x}}={\frac {505+500+495+505}{4}}=501{,}25}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9f73b4530fac89dc6aaaa3907fd3ea08a24981b5)
Es ist
![{\displaystyle {\begin{aligned}SQ_{x}&=(505-501{,}25)^{2}+(500-501{,}25)^{2}+(495-501{,}25)^{2}+(505-501{,}25)^{2}\\&=14{,}0625+1{,}5625+39{,}0625+14{,}0625\\&=68{,}75\,.\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cb1d31f7d73eb92b99d7d235a62648a8bc97b580)
Für die Anwendung des Verschiebungssatzes berechnet man
![{\displaystyle q_{1}=\sum _{i=1}^{n}x_{i}=505+500+495+505=2.005}](https://wikimedia.org/api/rest_v1/media/math/render/svg/13a0b256bd1f7908dce038a13052e9d75a57b599)
und
![{\displaystyle q_{2}=\sum _{i=1}^{n}x_{i}^{2}=255.025+250.000+245.025+255.025=1.005.075}](https://wikimedia.org/api/rest_v1/media/math/render/svg/13d000f0dc5c298e5a53c9a59aa4be072a563f29)
![{\displaystyle SQ_{x}=q_{2}-{\frac {1}{4}}q_{1}^{2}=68{,}75}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2ff115de1204247b1d267cfecb191e750f2be790)
Damit kann beispielsweise die (korrigierte) empirische Varianz als „durchschnittliches“ Abweichungsquadrat bestimmt werden:
![{\displaystyle s^{2}={\frac {1}{n-1}}SQ_{x}\,,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4ea4484837c92b61f2ea24cc9cc8b49e35fc02c9)
im Beispiel
![{\displaystyle s^{2}={\frac {1}{4-1}}68{,}75\approx 22{,}9\,.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b1e8e7ab9280df827225e30a362f9c28ab9c0bd6)
Wird die Stichprobe um ein weiteres Paket erweitert, so reicht es zur Neuberechnung der Stichprobenvariation mit Hilfe des Verschiebungssatzes, lediglich die Werte für
und
neu zu berechnen. Beim fünften Paket werde das Gewicht 510 g gemessen. Dann gilt:
![{\displaystyle q_{1}^{\text{neu}}=q_{1}+510=2.005+510=2.515\,,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0485537d66826f4e98b74ab1c45da473b39b4045)
sowie
![{\displaystyle SQ^{\text{neu}}=q_{2}^{\text{neu}}-{\frac {1}{5}}\left(q_{1}^{\text{neu}}\right)^{2}=130\,.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ad69e20b3ebd65db0961fb544d4b10250263b509)
Die Stichprobenvarianz der neuen, größeren Stichprobe ist dann
![{\displaystyle s_{\text{neu}}^{2}={\frac {1}{5-1}}SQ^{\text{neu}}=130/4=32{,}5\,.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c4b599991989cf36550b16f2912f7970dac9394f)
Anwendungen
Summe der quadratischen Abweichungen
Für die Summe der quadratischen Abweichungen von
Beobachtungswerten
und deren arithmetisches Mittel
gilt:
.
Damit kann man
berechnen, ohne das Mittel
bereits vorab zu kennen und ohne alle Stichprobenwerte speichern zu müssen.
Bei der Berechnung mit Gleitkommazahlen kann es jedoch zu einer numerischen Auslöschung kommen, wenn
erheblich größer ist als die Varianz, die Daten also nicht zentriert sind.[2] Daher bietet sich die Verwendung dieser Formel primär für analytische Betrachtungen an, nicht für die Verwendung mit realen Daten. Eine mögliche Abhilfe[3] ist, vorab eine Näherung
für das Mittel zu bestimmen und damit zu berechnen:
.
Falls die Näherung
nahe genug an dem echten Mittel
liegt, ist die Genauigkeit mit dieser Formel gut. Weitere numerisch stabilere Berechnungsmethoden finden sich in der Literatur.[3][2]
Stichprobenkovarianz
Die Summe der Abweichungsprodukte zweier Merkmale
und
ist gegeben durch
![{\displaystyle SP_{xy}:=\sum _{i=1}^{n}(x_{i}-{\overline {x}})(y_{i}-{\overline {y}})\ .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7202fd7371a87eac48cde874417d065da516c3c3)
Hier ergibt der Verschiebungssatz
![{\displaystyle SP_{xy}=\sum _{i=1}^{n}(x_{i}y_{i})-n{\overline {x}}{\overline {y}}\ .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6cee7c800cc2c385f364052aaf28a004033f6672)
Die korrigierte Stichprobenkovarianz berechnet sich dann als „durchschnittliches“ Abweichungsprodukt
![{\displaystyle s_{xy}={\frac {1}{n-1}}SP_{xy}\ .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/200a607d779015baedfc604d9f91322c2821321c)
Zufallsvariable
Varianz
Die Varianz einer Zufallsvariablen
![{\displaystyle \operatorname {Var} (X)=\operatorname {E} ((X-\operatorname {E} (X))^{2})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6273639eee6ea9d474b2f9a8395dc3a71e6bd8a9)
lässt sich mit dem Verschiebungssatz auch angeben als[4]
![{\displaystyle \operatorname {Var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}\ .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a43c21b314ff7db55573cb8197cdb71e95652eca)
Dieses Resultat wird auch als Satz von König-Huygens bezeichnet. Es ergibt sich aus der Linearität des Erwartungswertes:
![{\displaystyle {\begin{aligned}\operatorname {E} {\bigl (}(X-\operatorname {E} (X))^{2}{\bigr )}&=\operatorname {E} {\bigl (}X^{2}-2X\operatorname {E} (X)+\operatorname {E} (X)^{2}{\bigr )}\\&=\operatorname {E} (X^{2})-\operatorname {E} {\bigl (}2X\operatorname {E} (X){\bigr )}+\operatorname {E} {\bigl (}\operatorname {E} (X)^{2}{\bigr )}\\&=\operatorname {E} (X^{2})-2\operatorname {E} (X)\operatorname {E} (X)+\operatorname {E} (X)^{2}\\&=\operatorname {E} (X^{2})-\operatorname {E} (X)^{2}.\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e5cd2d23b1672eba6961e11a5cfe26e292f57f0d)
Eine allgemeinere Darstellung des Verschiebungssatzes ergibt sich aus:
.
- Man erhält bei einer diskreten Zufallsvariablen
mit den Ausprägungen
und der dazugehörigen Wahrscheinlichkeit
dann für
![{\displaystyle \operatorname {Var} (X)=\operatorname {E} ((X-\operatorname {E} (X))^{2})=\sum _{j}p_{j}\left(x_{j}-\sum _{i}p_{i}x_{i}\right)^{2}=\sum _{i}p_{i}x_{i}^{2}-\left(\sum _{i}p_{i}x_{i}\right)^{2}\ .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c724a76f9ba8d5b90cde772115e86557d232c202)
- Mit der speziellen Wahl
ergibt sich
und die obige Formel
![{\displaystyle {\frac {1}{n}}\sum _{i}\left(x_{i}-{\overline {x}}\right)^{2}={\frac {1}{n}}\sum _{i}x_{i}^{2}-{\overline {x}}^{2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/da52524502c6d2f37bb1588100addf3af07b255b)
- Für eine stetige Zufallsvariable
und der dazugehörigen Dichtefunktion
ist
![{\displaystyle \operatorname {Var} (X)=\operatorname {E} ((X-\operatorname {E} (X))^{2})=\int _{-\infty }^{\infty }(x-\operatorname {E} (X))^{2}\,f(x)\,\mathrm {d} x\ .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/82ca6665710b93766b899d5402615fa586e07471)
- Man erhält hier mit dem Verschiebungssatz
![{\displaystyle \operatorname {Var} (X)=\operatorname {E} ((X-\operatorname {E} (X))^{2})=\int _{-\infty }^{\infty }x^{2}f(x)\,\mathrm {d} x-\operatorname {E} (X)^{2}\ .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f9f4df16433e4f067077bbb758082737ca51f8d5)
Kovarianz
Die Kovarianz zweier Zufallsvariablen
und
![{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} ((X-\operatorname {E} (X))\cdot (Y-\operatorname {E} (Y)))}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8216b15e61c4771532a498a991f6a45d1b3efb39)
lässt sich mit dem Verschiebungssatz als
![{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} (XY)-\operatorname {E} (X)\operatorname {E} (Y)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fca499b7bb89200c7181f22e662ef77bcf382dec)
angeben.
Für diskrete Zufallsvariablen erhält man für
![{\displaystyle \operatorname {Cov} (X,Y)=\sum _{j}\sum _{k}(x_{j}-\operatorname {E} (X))(y_{k}-\operatorname {E} (Y))\cdot f(x_{j},y_{k})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/04e1cdda768bc0f2dd550eaee91a434bd28b4f88)
entsprechend zu oben
![{\displaystyle \operatorname {Cov} (X,Y)=\sum _{j}\sum _{k}x_{j}\,y_{k}\,f(x_{j},y_{k})-\operatorname {E} (X)\cdot \operatorname {E} (Y)\ ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/52e0a13813156ac9c09242371fa84526952c5a72)
mit
als gemeinsamer Wahrscheinlichkeit, dass
und
ist.
Bei stetigen Zufallsvariablen ergibt sich mit
als gemeinsamer Dichtefunktion von
und
an der Stelle
und
für die Kovarianz
![{\displaystyle \operatorname {Cov} (X,Y)=\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }(x-\operatorname {E} (X))(y-\operatorname {E} (Y))\cdot f(x,y)\,\mathrm {d} y\,\mathrm {d} x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dc586178893165d57b36aaa0ca0024f4e0b68b55)
entsprechend zu oben
![{\displaystyle \operatorname {Cov} (X,Y)=\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }xy\,f(x,y)\,\mathrm {d} y\,\mathrm {d} x-\operatorname {E} (X)\cdot \operatorname {E} (Y)\,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e3bc0cf767d34c4ae51f80a63a79db4c349089d7)
Geschichte
Die Herkunft der Bezeichnung Satz von Steiner für den Verschiebungssatz ist unklar. Eine direkte Verbindung des Verschiebungssatzes zu dem Werk des Mathematikers Jacob Steiner besteht nicht.
Einzelnachweise
- ↑ Hans-Friedrich Eckey, Reinhold Kosfeld, Christian Dreger: Statistik: Grundlagen — Methoden — Beispiele, S. 86
- ↑ a b Erich Schubert, Michael Gertz: Numerically stable parallel computation of (co-)variance. In: Proceedings of the 30th International Conference on Scientific and Statistical Database Management - SSDBM '18. ACM Press, Bozen-Bolzano, Italy 2018, ISBN 978-1-4503-6505-5, S. 1–12, doi:10.1145/3221269.3223036 (acm.org [abgerufen am 7. Dezember 2019]).
- ↑ a b Tony F. Chan, Gene H. Golub, Randall J. LeVeque: Algorithms for computing the sample variance: analysis and recommendations. In: The American Statistician Vol. 37, No. 3 (Aug., 1983), S. 242–247
- ↑ Ansgar Steland: Basiswissen Statistik, S. 116