Bislang haben wir die Gauß-Funktion nur für binomialverteilte
Zufallsgrößen \(X\) benutzt. Ihre Anwendung ist jedoch viel weitreichender, wie folgendes Beispiel zeigt:
Sei \(X_1\) die Augenzahl beim Würfeln. Alle sechs Werte von \(X_1\) sind gleichwahrscheinlich,
\(X_1\) ist also nicht binomialverteilt. Das Histogramm zeigt keine Ähnlichkeit mit der (nichtstandardisierten)
Dichtefunktion \(\varphi_{\mu\sigma}\) \((\mu=3,5;\, \sigma^2=\frac{35}{12})\):
Nun würfeln wir zweimal und bilden die Summe \(X=X_1+X_2\) der beiden Augenzahlen.
Wir vergleichen wieder das Histogramm von \(X\) mit dem Graphen von \(\varphi_{\mu\sigma} \, (\mu=7;\, \sigma^2=\frac{35}{6})\)
und erkennen die Ausprägung einer glockenförmigen Gestalt:
Die Wahrscheinlichkeitsverteilung der Augensumme \(X=X_1+X_2+X_3\)
von drei Würfen lässt schon eine bessere Annäherung an die Gaußsche Glockenkurve erkennen, obwohl \(X\) keineswegs binomialverteilt ist:
Offensichtlich wird die Näherung um so besser, je größer die Anzahl der Würfe ist (hier 4 Würfe):
Vergleiche selbst:
Die integrale Näherungsformel gilt tatsächlich
nicht nur für binomialverteilte Zufallsgrößen, sondern für jede Zufallsgröße, die sich aus Summanden unabhängiger Zufallsgrößen
zusammensetzt.
Diese tiefgründige Entdeckung ist die Aussage vom
Zentralen Grenzwertsatz
1901 bewiesen von Alexander M. Ljapunow:
Ist die Zufallsgröße \(X=X_1+X_2+\ldots+X_n\)
Summe von \(n\) unabhängigen Zufallsgrößen, und ist \(\mu\) Erwartungswert von \(X\) und \(\sigma\) Standardabweichung von \(X\),
so gilt für große \(n\):
$$P(X \le x)\approx \Phi \left( \frac{x-\mu}{\sigma}\right)$$