Inhaltsverzeichnis

  • Wahrscheinlichkeitsrechnung mit Bernoulli-Experimenten

    • Einführung

    • Der Binomialkoeffizient

    • Wahrscheinlichkeitsverteilung

    • Beispielaufgabe zur Binomialverteilung

    • Standardabweichung


Wahrscheinlichkeitsrechnung mit Bernoulli-Experimenten

== Wahrscheinlichkeitsrechnung mit Bernoulli-Experimenten

Einführung

=== Einführung

Ein Zufallsexperiment, das genau zwei mögliche Ausgänge hat, z. B. Treffer und Nicht-Treffer, heißt Bernoulli-Experiment. Dabei wird p als Treffer-Wahrscheinlichkeit bezeichnet, die Wahrscheinlichkeit dafür, dass kein Treffer eintritt, ist entsprechend q=1-p.

Wird ein solches Experiment n Mal hintereinander durchgeführt, so liegt eine Bernoulli-Kette der Länge n vor.

Um die Wahrscheinlichkeit Bn;p(k)B_{n;p}(k)B​n;p​​(k) dafür zu berechnen, dass bei einer Bernoulli-Kette der Länge n mit der Treffer-Wahrscheinlichkeit p genau k Treffer vorkommen, kann man die Formel Bn;p(k)=(nk)⋅pk⋅(1−p)n−k B_{n;p}(k)=\binom{n}{k} \cdot p^k \cdot (1-p)^{n-k} B​n;p​​(k)=(​k​n​​)⋅p​k​​⋅(1−p)​n−k​​ verwenden.

Darin steht der Teil pk⋅(1−p)n−kp^k \cdot (1-p)^{n-k}p​k​​⋅(1−p)​n−k​​ für die Wahrscheinlichkeit, bei einer Abfolge von n Zufallsversuchen k Treffer zu erzielen.

Der vordere Teil, der Binomialkoeffizient (nk)\binom{n}{k}(​k​n​​) (sprich: "n über k") zählt dabei, wie viele Möglichkeiten es gibt, bei n Versuchen genau k Treffer zu erzielen:

Ein Zufallsexperiment, das genau zwei mögliche Ausgänge hat, z. B. Treffer und Nicht-Treffer, heißt *Bernoulli-Experiment*. Dabei wird *p* als *Treffer-Wahrscheinlichkeit* bezeichnet, die Wahrscheinlichkeit dafür, dass kein Treffer eintritt, ist entsprechend *q=1-p*. Wird ein solches Experiment _n_ Mal hintereinander durchgeführt, so liegt eine *Bernoulli-Kette der Länge n* vor. Um die Wahrscheinlichkeit $$B_{n;p}(k)$$ dafür zu berechnen, dass bei einer Bernoulli-Kette der Länge n mit der Treffer-Wahrscheinlichkeit p genau k Treffer vorkommen, kann man die Formel $$ B_{n;p}(k)=\binom{n}{k} \cdot p^k \cdot (1-p)^{n-k} $$ verwenden. Darin steht der Teil $$p^k \cdot (1-p)^{n-k}$$ für die Wahrscheinlichkeit, bei einer Abfolge von n Zufallsversuchen k Treffer zu erzielen. Der vordere Teil, der *Binomialkoeffizient* $$\binom{n}{k}$$ (sprich: "n über k") zählt dabei, wie viele Möglichkeiten es gibt, bei n Versuchen genau k Treffer zu erzielen:

Beispiel: (32)\binom{3}{2}(​2​3​​) Wie viele Möglichkeiten gibt es, bei 3 Versuchen genau 2 Treffer zu erzielen (t als Treffer, n als Niete)?

t t n
t n t
n t t

Es gibt offensichtlich 3 Möglichkeiten, bei drei Versuchen 2 Treffer zu erzielen. Somit ist (32)=3\binom{3}{2}=3(​2​3​​)=3.

*Beispiel: $$\binom{3}{2}$$* Wie viele Möglichkeiten gibt es, bei 3 Versuchen genau 2 Treffer zu erzielen (t als Treffer, n als Niete)? ---- t t n t n t n t t ---- Es gibt offensichtlich 3 Möglichkeiten, bei drei Versuchen 2 Treffer zu erzielen. Somit ist $$\binom{3}{2}=3$$.

Wie kann man (nk)\binom{n}{k}(​k​n​​) berechnen?

Zunächst stehen n leere Plätze zur Verfügung (diese stehen für die einzelnen Versuche der Bernoulli-Kette). Für den ersten der k Treffer stehen somit n Plätze zur Verfügung, für den zweiten (n-1), bis der k-te Treffer noch (n-k+1) Möglichkeiten hat.

Somit hätten wir insgesamt n⋅(n−1)⋅...⋅(n−k+1)n \cdot (n-1) \cdot ... \cdot (n-k+1)n⋅(n−1)⋅...⋅(n−k+1) Möglichkeiten.

Eine mögliche Abfolge wäre für n=3:

t1t_1t​1​​ t2t_2t​2​​ nnn

Allerdings ist es so, dass wir nicht unterscheiden müssen, ob ein Treffer in der Bernoulli-Kette der erste oder zweite Treffer ist.

Deshalb ist die obere Abfolge für unseren Fall identisch zu

t2t_2t​2​​ t1t_1t​1​​ nnn

Deswegen muss man also noch alle Vertauschungsmöglichkeiten der Treffer untereinander berücksichtigen: alle Abfolgen, bei denen an den gleichen Stellen Treffer und Nieten vorzufinden sind (unabhängig davon, ob dort der erste, zweite oder dritte Treffer steht), zählen als eine mögliche Abfolge.

Wie viele Möglichkeiten gibt es, k Treffer auf k Plätze zu verteilen? Dies entspricht nämlich der Anzahl, der nicht unterscheidbaren Abfolgen:

Der erste Treffer hat k freie Plätze, der zweite (k-1), bis der k-te Treffer nur noch eine Möglichkeit hat, da alle anderen ja schon belegt sind.

Somit ist die Anzahl der möglichen Vertauschungen der k Treffer untereinander k⋅(k−1)⋅...⋅1k \cdot (k-1) \cdot ... \cdot 1k⋅(k−1)⋅...⋅1.

Insgesamt erhält man somit für die Anzahl der Möglichkeiten, bei n Versuchen genau k Treffer zu landen also: (nk)=n⋅(n−1)⋅...⋅(n−k+1)k⋅(k−1)⋅...⋅1 \binom{n}{k}=\frac{n \cdot (n-1) \cdot ... \cdot (n-k+1)}{k\cdot (k-1)\cdot ... \cdot 1} (​k​n​​)=​k⋅(k−1)⋅...⋅1​​n⋅(n−1)⋅...⋅(n−k+1)​​

Mit Hilfe der Fakultät n!=n⋅(n−1)⋅(n−2)⋅...⋅2⋅1 n!=n\cdot (n-1) \cdot (n-2) \cdot ... \cdot 2 \cdot 1 n!=n⋅(n−1)⋅(n−2)⋅...⋅2⋅1

kann man den Ausdruck schreiben als

Wie kann man $$\binom{n}{k}$$ berechnen? Zunächst stehen n leere Plätze zur Verfügung (diese stehen für die einzelnen Versuche der Bernoulli-Kette). Für den ersten der k Treffer stehen somit n Plätze zur Verfügung, für den zweiten (n-1), bis der k-te Treffer noch (n-k+1) Möglichkeiten hat. Somit hätten wir insgesamt $$n \cdot (n-1) \cdot ... \cdot (n-k+1)$$ Möglichkeiten. Eine mögliche Abfolge wäre für n=3: $$t_1$$ $$t_2$$ $$n$$ Allerdings ist es so, dass wir nicht unterscheiden müssen, ob ein Treffer in der Bernoulli-Kette der erste oder zweite Treffer ist. Deshalb ist die obere Abfolge für unseren Fall identisch zu $$t_2$$ $$t_1$$ $$n$$ Deswegen muss man also noch alle Vertauschungsmöglichkeiten der Treffer untereinander berücksichtigen: alle Abfolgen, bei denen an den gleichen Stellen Treffer und Nieten vorzufinden sind (unabhängig davon, ob dort der erste, zweite oder dritte Treffer steht), zählen als *eine* mögliche Abfolge. Wie viele Möglichkeiten gibt es, k Treffer auf k Plätze zu verteilen? Dies entspricht nämlich der Anzahl, der nicht unterscheidbaren Abfolgen: Der erste Treffer hat k freie Plätze, der zweite (k-1), bis der k-te Treffer nur noch eine Möglichkeit hat, da alle anderen ja schon belegt sind. Somit ist die Anzahl der möglichen Vertauschungen der k Treffer untereinander $$k \cdot (k-1) \cdot ... \cdot 1$$. Insgesamt erhält man somit für die Anzahl der Möglichkeiten, bei n Versuchen genau k Treffer zu landen also: $$ \binom{n}{k}=\frac{n \cdot (n-1) \cdot ... \cdot (n-k+1)}{k\cdot (k-1)\cdot ... \cdot 1} $$ Mit Hilfe der *Fakultät* $$ n!=n\cdot (n-1) \cdot (n-2) \cdot ... \cdot 2 \cdot 1 $$ kann man den Ausdruck schreiben als

Der Binomialkoeffizient

=== Der Binomialkoeffizient

(nk)=n!k!⋅(n−k)! \binom{n}{k}=\frac{n!}{k!\cdot(n-k)!} (​k​n​​)=​k!⋅(n−k)!​​n!​​

==== $$ \binom{n}{k}=\frac{n!}{k!\cdot(n-k)!} $$ ====

Beispiel:

(32)=3!2!⋅1!=3⋅2⋅12⋅1⋅1=3 \binom{3}{2}=\frac{3!}{2!\cdot 1!}=\frac{3\cdot 2\cdot 1}{2\cdot 1\cdot 1}=3 (​2​3​​)=​2!⋅1!​​3!​​=​2⋅1⋅1​​3⋅2⋅1​​=3

Also gibt es als Ergebnis 3 Möglichkeiten, um 2 Treffer auf 3 Versuche zu verteilen. Das hatten wir weiter oben schon:

1. t t n
2. t n t
3. n t t
*Beispiel:* $$ \binom{3}{2}=\frac{3!}{2!\cdot 1!}=\frac{3\cdot 2\cdot 1}{2\cdot 1\cdot 1}=3 $$ Also gibt es als Ergebnis 3 Möglichkeiten, um 2 Treffer auf 3 Versuche zu verteilen. Das hatten wir weiter oben schon: ---- 1. t t n 2. t n t 3. n t t ----

Um nun die Gesamtwahrscheinlichkeit zu berechnen, bei n Versuchen genau k Treffer zu landen, müssen die Wahrscheinlichkeiten aller Pfade mit k Treffern addiert werden.

Für n=3 und k=2 kann man sich das folgendermaßen vorstellen:

Um nun die Gesamtwahrscheinlichkeit zu berechnen, bei n Versuchen genau k Treffer zu landen, müssen die Wahrscheinlichkeiten aller Pfade mit k Treffern addiert werden. Für n=3 und k=2 kann man sich das folgendermaßen vorstellen:

Die Wahrscheinlichkeit dafür, dass bei einer Bernoulli-Kette der Länge n mit der Treffer-Wahrscheinlichkeit p genau k Treffer vorkommen, ist Bn;p(k)=(nk)⋅pk⋅(1−p)n−k B_{n;p}(k)=\binom{n}{k} \cdot p^k \cdot (1-p)^{n-k} B​n;p​​(k)=(​k​n​​)⋅p​k​​⋅(1−p)​n−k​​

==== Die Wahrscheinlichkeit dafür, dass bei einer Bernoulli-Kette der Länge _n_ mit der Treffer-Wahrscheinlichkeit _p_ genau _k_ Treffer vorkommen, ist $$ B_{n;p}(k)=\binom{n}{k} \cdot p^k \cdot (1-p)^{n-k} $$ ====

Wahrscheinlichkeitsverteilung

=== Wahrscheinlichkeitsverteilung

Die Funktion, deren Zuordnungsvorschrift einer Bernoulli-Kette der Länge n jeder Trefferzahl k die zugehörige Wahrscheinlichkeit zuweist, heißt Wahrscheinlichkeitsverteilung bzw. hier speziell Binomialverteilung.

Die Funktion, deren Zuordnungsvorschrift einer Bernoulli-Kette der Länge _n_ jeder Trefferzahl _k_ die zugehörige Wahrscheinlichkeit zuweist, heißt *Wahrscheinlichkeitsverteilung* bzw. hier speziell *Binomialverteilung*.

Für n=5 und p=25 \frac{2}{5} ​5​​2​​ sieht die Verteilung beispielsweise so aus:

k B5;25(k)B_{5;\frac{2}{5}}(k)B​5;​5​​2​​​​(k)

0

0.07776 0.07776 0.07776

1

0.2592 0.2592 0.2592

2

0.3456 0.3456 0.3456

3

0.2304 0.2304 0.2304

4

0.0768 0.0768 0.0768

5

0.01024 0.01024 0.01024

!! !B(n,p,k):=(factorial(n)/factorial(k)/factorial(n-k))*p^k*(1-p)^(n-k) !p:0.4 !! Für n=5 und p=!!p!! sieht die Verteilung beispielsweise so aus: |=== |k|$$B_{5;!!p!!}(k)$$ |0|!!#B(5,p,0) #!! |1|!!#B(5,p,1) #!! |2|!!#B(5,p,2) #!! |3|!!#B(5,p,3) #!! |4|!!#B(5,p,4) #!! |5|!!#B(5,p,5) #!! |===

Stellt man die Verteilung graphisch dar, so erhält man:

Stellt man die Verteilung graphisch dar, so erhält man:
!! !startx:-0.7 !endex:6 !starty:-0.03 !endey:.5 !! !ppp ratio:1,.5 xaxis:!!startx!!,!!endex!!,1 yaxis:!!starty!!,!!endey!!,1 pen:#ccccff,4 grid:-0.5,-0.5 pen:blue,10,0,0 polygon:-0.5,0,-0.5,!!B(5,p,0)!!,0.5,!!B(5,p,0)!!,0.5,0,-0.5,0 ,#aaaaff polygon:0.5,0,0.5,!!B(5,p,1)!!,1.5,!!B(5,p,1)!!,1.5,0,0.5 ,0,#aaaaff polygon:1.5,0,1.5,!!B(5,p,2)!!,2.5,!!B(5,p,2)!!,2.5,0,1.5 ,0,#aaaaff polygon:2.5,0,2.5,!!B(5,p,3)!!,3.5,!!B(5,p,3)!!,3.5,0,2.5 ,0,#aaaaff polygon:3.5,0,3.5,!!B(5,p,4)!!,4.5,!!B(5,p,4)!!,4.5,0,3.5 ,0,#aaaaff polygon:4.5,0,4.5,!!B(5,p,5)!!,5.5,!!B(5,p,5)!!,5.5,0,4.5 ,0,#aaaaff !ppp

Der gewichtete Mittelwert, der im Zusammenhang mit Wahrscheinlichkeitsrechnung als Erwartungswert μ\muμ bezeichnet wird, ist hier

Der _gewichtete Mittelwert_, der im Zusammenhang mit Wahrscheinlichkeitsrechnung als *Erwartungswert $$\mu$$* bezeichnet wird, ist hier

μ=0⋅B5;25(0)+1⋅B5;25(1)+2⋅B5;25(2)+3⋅B5;25(3)+4⋅B5;25(4)+5⋅B5;25(5) \mu= 0\cdot B_{5;\frac{2}{5}}(0) +1\cdot B_{5;\frac{2}{5}}(1)+2\cdot B_{5;\frac{2}{5}}(2)+3\cdot B_{5;\frac{2}{5}}(3)+4\cdot B_{5;\frac{2}{5}}(4)+5\cdot B_{5;\frac{2}{5}}(5) μ=0⋅B​5;​5​​2​​​​(0)+1⋅B​5;​5​​2​​​​(1)+2⋅B​5;​5​​2​​​​(2)+3⋅B​5;​5​​2​​​​(3)+4⋅B​5;​5​​2​​​​(4)+5⋅B​5;​5​​2​​​​(5) oder kurz geschrieben: μ=∑k=05k⋅B5;25(k) \mu= \sum_{k=0}^5 k \cdot B_{5;\frac{2}{5}}(k) μ=​k=0​∑​5​​k⋅B​5;​5​​2​​​​(k)

$$ \mu= 0\cdot B_{5;!!p!!}(0) +1\cdot B_{5;!!p!!}(1)+2\cdot B_{5;!!p!!}(2)+3\cdot B_{5;!!p!!}(3)+4\cdot B_{5;!!p!!}(4)+5\cdot B_{5;!!p!!}(5) $$ oder kurz geschrieben: $$ \mu= \sum_{k=0}^5 k \cdot B_{5;!!p!!}(k) $$

In der Rechnung ergibt sich:

In der Rechnung ergibt sich:

μ=∑k=05k⋅B5;25(k)=2 \mu= \sum_{k=0}^5 k \cdot B_{5;\frac{2}{5}}(k)=2 μ=​k=0​∑​5​​k⋅B​5;​5​​2​​​​(k)=2

$$ \mu= \sum_{k=0}^5 k \cdot B_{5;!!p!!}(k)=!!#0*B(5,p,0)+1*B(5,p,1)+2*B(5,p,2)+3*B(5,p,3)+4*B(5,p,4)+5*B(5,p,5)#!! $$

Das ist kein Zufall. Man kann zeigen: Es gilt für den

Das ist kein Zufall. Man kann zeigen: Es gilt für den

Erwartungswert einer Bn;pB_{n;p}B​n;p​​-verteilten Zufallsvariable: μ=n⋅p \mu=n\cdot p μ=n⋅p

==== *Erwartungswert einer $$B_{n;p}$$-verteilten Zufallsvariable*: $$ \mu=n\cdot p $$ ====

Den Beweis für die Gültigkeit der Formel kannst du hier einblenden.

Den Beweis für die Gültigkeit der Formel kannst du <<tags_@B, hier einblenden>>.

Beweis wieder ausblenden

<<tags_@, Beweis wieder ausblenden>>

Beweis der Formel μ=n⋅p\mu=n \cdot pμ=n⋅p

Allgemein ist der Erwartungswert einer Zufallsvariable XXX definiert als μ=∑k=0nxk⋅P(X=xk) \mu=\sum_{k=0}^{n} x_k \cdot P(X=x_k) μ=​k=0​∑​n​​x​k​​⋅P(X=x​k​​)

xkx_kx​k​​ ist dabei der k-te von n Werten, den die Zufallsvariable XXX annehmen kann. In unserem Fall ist xk=kx_k=kx​k​​=k, da die Zufallsvariable für die Anzahl der Treffer steht und somit die Werte von 0 bis n annehmen kann.

Somit gilt für eine Bn;pB_{n;p}B​n;p​​-verteilte Zufallsvariable XXX: μ=∑k=0nk⋅P(X=k)=∑k=0nk⋅(nk)⋅pk⋅(1−p)n−k \mu=\sum_{k=0}^{n} k \cdot P(X=k)= \sum_{k=0}^{n} k \cdot \binom{n}{k} \cdot p^k \cdot (1-p)^{n-k} μ=​k=0​∑​n​​k⋅P(X=k)=​k=0​∑​n​​k⋅(​k​n​​)⋅p​k​​⋅(1−p)​n−k​​

*Beweis der Formel $$\mu=n \cdot p$$* Allgemein ist der Erwartungswert einer Zufallsvariable $$X$$ definiert als $$ \mu=\sum_{k=0}^{n} x_k \cdot P(X=x_k) $$ $$x_k$$ ist dabei der k-te von n Werten, den die Zufallsvariable $$X$$ annehmen kann. In unserem Fall ist $$x_k=k$$, da die Zufallsvariable für die Anzahl der Treffer steht und somit die Werte von 0 bis n annehmen kann. Somit gilt für eine $$B_{n;p}$$-verteilte Zufallsvariable $$X$$: $$ \mu=\sum_{k=0}^{n} k \cdot P(X=k)= \sum_{k=0}^{n} k \cdot \binom{n}{k} \cdot p^k \cdot (1-p)^{n-k} $$

Ausschreiben des Binomialkoeffizienten ergibt ∑k=0nk⋅n!k!⋅(n−k)!⋅pk⋅(1−p)n−k \sum_{k=0}^{n} k \cdot \frac{n!}{k!\cdot (n-k)!} \cdot p^k \cdot (1-p)^{n-k} ​k=0​∑​n​​k⋅​k!⋅(n−k)!​​n!​​⋅p​k​​⋅(1−p)​n−k​​

Ausschreiben des Binomialkoeffizienten ergibt $$ \sum_{k=0}^{n} k \cdot \frac{n!}{k!\cdot (n-k)!} \cdot p^k \cdot (1-p)^{n-k} $$

Der erste Summand kann weggelassen werden, da er für k=0k=0k=0 zu 000 wird: ∑k=1nk⋅n!k!⋅(n−k)!⋅pk⋅(1−p)n−k \sum_{k=1}^{n} k \cdot \frac{n!}{k!\cdot (n-k)!} \cdot p^k \cdot (1-p)^{n-k} ​k=1​∑​n​​k⋅​k!⋅(n−k)!​​n!​​⋅p​k​​⋅(1−p)​n−k​​

Der erste Summand kann weggelassen werden, da er für $$k=0$$ zu $$0$$ wird: $$ \sum_{k=1}^{n} k \cdot \frac{n!}{k!\cdot (n-k)!} \cdot p^k \cdot (1-p)^{n-k} $$

Das vordere kkk kann mit der Fakultät k!k!k! im Nenner gekürzt werden: ∑k=1nn!(k−1)!⋅(n−k)!⋅pk⋅(1−p)n−k \sum_{k=1}^{n} \frac{n!}{(k-1)!\cdot (n-k)!} \cdot p^k \cdot (1-p)^{n-k} ​k=1​∑​n​​​(k−1)!⋅(n−k)!​​n!​​⋅p​k​​⋅(1−p)​n−k​​

Das vordere $$k$$ kann mit der Fakultät $$k!$$ im Nenner gekürzt werden: $$ \sum_{k=1}^{n} \frac{n!}{(k-1)!\cdot (n-k)!} \cdot p^k \cdot (1-p)^{n-k} $$

Der letzte Summand der Summe (der Summand mit k=nk=nk=n), wird vor die Summe gezogen, also der Summand n!(n−1)!⋅0!⋅pn⋅(1−p)0=n⋅pn \frac{n!}{(n-1)!\cdot 0!} \cdot p^n \cdot (1-p)^0 = n \cdot p^n ​(n−1)!⋅0!​​n!​​⋅p​n​​⋅(1−p)​0​​=n⋅p​n​​ (Beachte: 0!=10!=10!=1 und (1−p)0=1(1-p)^0=1(1−p)​0​​=1).

Damit läuft kkk nur noch von 111 bis n−1n-1n−1 und es verbleibt insgesamt: n⋅pn+∑k=1n−1n!(k−1)!⋅(n−k)!⋅pk⋅(1−p)n−k n \cdot p^n + \sum_{k=1}^{n-1} \frac{n!}{(k-1)!\cdot (n-k)!} \cdot p^k \cdot (1-p)^{n-k} n⋅p​n​​+​k=1​∑​n−1​​​(k−1)!⋅(n−k)!​​n!​​⋅p​k​​⋅(1−p)​n−k​​

Der letzte Summand der Summe (der Summand mit $$k=n$$), wird vor die Summe gezogen, also der Summand $$ \frac{n!}{(n-1)!\cdot 0!} \cdot p^n \cdot (1-p)^0 = n \cdot p^n $$ (Beachte: $$0!=1$$ und $$(1-p)^0=1$$). Damit läuft $$k$$ nur noch von $$1$$ bis $$n-1$$ und es verbleibt insgesamt: $$ n \cdot p^n + \sum_{k=1}^{n-1} \frac{n!}{(k-1)!\cdot (n-k)!} \cdot p^k \cdot (1-p)^{n-k} $$

Nun kann man aus dem ganzen Ausdruck n⋅pn\cdot pn⋅p ausklammern: n⋅p⋅(pn−1+∑k=1n−1(n−1)!(k−1)!⋅(n−k)!⋅pk−1⋅(1−p)n−k) n\cdot p \cdot \Big(p^{n-1}+\sum_{k=1}^{n-1} \frac{(n-1)!}{(k-1)!\cdot (n-k)!} \cdot p^{k-1} \cdot (1-p)^{n-k} \Big) n⋅p⋅(p​n−1​​+​k=1​∑​n−1​​​(k−1)!⋅(n−k)!​​(n−1)!​​⋅p​k−1​​⋅(1−p)​n−k​​)

Nun kann man aus dem ganzen Ausdruck $$n\cdot p$$ ausklammern: $$ n\cdot p \cdot \Big(p^{n-1}+\sum_{k=1}^{n-1} \frac{(n-1)!}{(k-1)!\cdot (n-k)!} \cdot p^{k-1} \cdot (1-p)^{n-k} \Big) $$

In der Summe lassen wir das kkk nun statt von 111 bis n−1n-1n−1 von 000 bis n−2n-2n−2 laufen. Damit der Ausdruck sich nicht ändert, muss jedes kkk durch k+1k+1k+1 ersetzt werden:

n⋅p⋅(pn−1+∑k=0n−2(n−1)!((k+1)−1)!⋅(n−(k+1))!⋅p(k+1)−1⋅(1−p)n−(k+1)) n\cdot p \cdot \Big(p^{n-1}+\sum_{k=0}^{n-2} \frac{(n-1)!}{((k+1)-1)!\cdot (n-(k+1))!} \cdot p^{(k+1)-1} \cdot (1-p)^{n-(k+1)} \Big) n⋅p⋅(p​n−1​​+​k=0​∑​n−2​​​((k+1)−1)!⋅(n−(k+1))!​​(n−1)!​​⋅p​(k+1)−1​​⋅(1−p)​n−(k+1)​​)

In der Summe lassen wir das $$k$$ nun statt von $$1$$ bis $$n-1$$ von $$0$$ bis $$n-2$$ laufen. Damit der Ausdruck sich nicht ändert, muss jedes $$k$$ durch $$k+1$$ ersetzt werden: $$ n\cdot p \cdot \Big(p^{n-1}+\sum_{k=0}^{n-2} \frac{(n-1)!}{((k+1)-1)!\cdot (n-(k+1))!} \cdot p^{(k+1)-1} \cdot (1-p)^{n-(k+1)} \Big) $$

Ohne Klammern geschrieben verbleibt: n⋅p⋅(pn−1+∑k=0n−2(n−1)!k!⋅(n−k−1)!⋅pk⋅(1−p)n−k−1) n\cdot p \cdot \Big(p^{n-1}+\sum_{k=0}^{n-2} \frac{(n-1)!}{k!\cdot (n-k-1)!} \cdot p^{k} \cdot (1-p)^{n-k-1} \Big) n⋅p⋅(p​n−1​​+​k=0​∑​n−2​​​k!⋅(n−k−1)!​​(n−1)!​​⋅p​k​​⋅(1−p)​n−k−1​​)

Ohne Klammern geschrieben verbleibt: $$ n\cdot p \cdot \Big(p^{n-1}+\sum_{k=0}^{n-2} \frac{(n-1)!}{k!\cdot (n-k-1)!} \cdot p^{k} \cdot (1-p)^{n-k-1} \Big) $$

Nun ziehen wir den Summand pn−1p^{n-1}p​n−1​​ wieder in die Summe hinein: n⋅p⋅(∑k=0n−1(n−1)!k!⋅(n−k−1)!⋅pk⋅(1−p)n−k−1) n\cdot p \cdot \Big(\sum_{k=0}^{n-1} \frac{(n-1)!}{k!\cdot (n-k-1)!} \cdot p^{k} \cdot (1-p)^{n-k-1} \Big) n⋅p⋅(​k=0​∑​n−1​​​k!⋅(n−k−1)!​​(n−1)!​​⋅p​k​​⋅(1−p)​n−k−1​​)

Nun ziehen wir den Summand $$p^{n-1}$$ wieder in die Summe hinein: $$ n\cdot p \cdot \Big(\sum_{k=0}^{n-1} \frac{(n-1)!}{k!\cdot (n-k-1)!} \cdot p^{k} \cdot (1-p)^{n-k-1} \Big) $$

Überprüfung: Der Summand für k=n−1k=n-1k=n−1 ist (n−1)!(n−1)!⋅(n−(n−1)−1)!⋅pn−1⋅(1−p)n−(n−1)−1= \frac{(n-1)!}{(n-1)!\cdot (n-(n-1)-1)!} \cdot p^{n-1} \cdot (1-p)^{n-(n-1)-1}= ​(n−1)!⋅(n−(n−1)−1)!​​(n−1)!​​⋅p​n−1​​⋅(1−p)​n−(n−1)−1​​= 11⋅0!⋅pn−1⋅(1−p)0=pn−1, \frac{1}{1\cdot 0!} \cdot p^{n-1} \cdot (1-p)^{0}=p^{n-1}, ​1⋅0!​​1​​⋅p​n−1​​⋅(1−p)​0​​=p​n−1​​, also tatsächlich der Summand, der soeben in die Summe gezogen wurde.

*Überprüfung:* Der Summand für $$k=n-1$$ ist $$ \frac{(n-1)!}{(n-1)!\cdot (n-(n-1)-1)!} \cdot p^{n-1} \cdot (1-p)^{n-(n-1)-1}= $$ $$ \frac{1}{1\cdot 0!} \cdot p^{n-1} \cdot (1-p)^{0}=p^{n-1}, $$ also tatsächlich der Summand, der soeben in die Summe gezogen wurde.

Der Ausdruck (n−1)!k!⋅(n−k−1)! \frac{(n-1)!}{k!\cdot (n-k-1)!} ​k!⋅(n−k−1)!​​(n−1)!​​ entspricht dem Binomialkoeffizient (n−1k)\binom{n-1}{k}(​k​n−1​​), also wird aus

n⋅p⋅(∑k=0n−1(n−1)!k!⋅(n−k−1)!⋅pk⋅(1−p)n−k−1) n\cdot p \cdot \Big(\sum_{k=0}^{n-1} \frac{(n-1)!}{k!\cdot (n-k-1)!} \cdot p^{k} \cdot (1-p)^{n-k-1} \Big) n⋅p⋅(​k=0​∑​n−1​​​k!⋅(n−k−1)!​​(n−1)!​​⋅p​k​​⋅(1−p)​n−k−1​​) der Ausdruck n⋅p⋅(∑k=0n−1(n−1k)⋅pk⋅(1−p)n−k−1) n\cdot p \cdot \Big(\sum_{k=0}^{n-1} \binom{n-1}{k} \cdot p^{k} \cdot (1-p)^{n-k-1} \Big) n⋅p⋅(​k=0​∑​n−1​​(​k​n−1​​)⋅p​k​​⋅(1−p)​n−k−1​​)

Der Ausdruck $$ \frac{(n-1)!}{k!\cdot (n-k-1)!} $$ entspricht dem Binomialkoeffizient $$\binom{n-1}{k}$$, also wird aus $$ n\cdot p \cdot \Big(\sum_{k=0}^{n-1} \frac{(n-1)!}{k!\cdot (n-k-1)!} \cdot p^{k} \cdot (1-p)^{n-k-1} \Big) $$ der Ausdruck $$ n\cdot p \cdot \Big(\sum_{k=0}^{n-1} \binom{n-1}{k} \cdot p^{k} \cdot (1-p)^{n-k-1} \Big) $$

In n⋅p⋅(∑k=0n−1(n−1k)⋅pk⋅(1−p)n−k−1) n\cdot p \cdot \Big(\sum_{k=0}^{n-1} \binom{n-1}{k} \cdot p^{k} \cdot (1-p)^{n-k-1} \Big) n⋅p⋅(​k=0​∑​n−1​​(​k​n−1​​)⋅p​k​​⋅(1−p)​n−k−1​​) entspricht die Summe der Summe aller Wahrscheinlichkeiten einer Bn−1;pB_{n-1;p}B​n−1;p​​-verteilten Zufallsvariable und ist somit 111.

Also verbleibt für den Erwartungswert E(X)=μ=n⋅pE(X)=\mu=n\cdot pE(X)=μ=n⋅p.

In $$ n\cdot p \cdot \Big(\sum_{k=0}^{n-1} \binom{n-1}{k} \cdot p^{k} \cdot (1-p)^{n-k-1} \Big) $$ entspricht die Summe der Summe aller Wahrscheinlichkeiten einer $$B_{n-1;p}$$-verteilten Zufallsvariable und ist somit $$1$$. Also verbleibt für den Erwartungswert $$E(X)=\mu=n\cdot p$$.

Beweis ausblenden

<<tags_@, Beweis ausblenden>>

Der Erwartungswert einer binomialverteilten Zufallsvariable liegt in der Nähe des Wertes, der in der Wahrscheinlichkeitsverteilung die höchste Wahrscheinlichkeit hat. In unserem Beispiel ist sogar genau bei der 2 die höchste Wahrscheinlichkeit vorzufinden.

Der Erwartungswert einer binomialverteilten Zufallsvariable liegt in der Nähe des Wertes, der in der Wahrscheinlichkeitsverteilung die höchste Wahrscheinlichkeit hat. In unserem Beispiel ist sogar genau bei der 2 die höchste Wahrscheinlichkeit vorzufinden.

Eine Zufallsvariable ist beispielsweise eine Variable, die bei einem mehrstufigen Zufallsexperiment für die Anzahl der Treffer steht.

So könnte eine Zufallsvariable X für die Anzahl der geworfenen Sechser stehen, wenn man 4 mal würfelt. Diese Zufallsvariable wäre B4;16B_{4;\frac{1}{6}} B​4;​6​​1​​​​-verteilt.

[NOTE] ==== Eine *Zufallsvariable* ist beispielsweise eine Variable, die bei einem mehrstufigen Zufallsexperiment für die Anzahl der Treffer steht. So könnte eine Zufallsvariable X für die Anzahl der geworfenen Sechser stehen, wenn man 4 mal würfelt. Diese Zufallsvariable wäre $$B_{4;\frac{1}{6}} $$-verteilt. ====

Beispielaufgabe zur Binomialverteilung

Ein Glücksrad, bei dem die Trefferwahrscheinlichkeit 15% beträgt, wird 20 Mal gedreht.

  1. Berechne den Erwartungswert.

  2. Bestimme die Wahrscheinlichkeit dafür, dass der Spieler genau 3 Mal gewinnt.

  3. Bestimme die Wahrscheinlichkeit dafür, dass der Spieler höchstens 10 Mal gewinnt.

  4. Bestimme die Wahrscheinlichkeit dafür, dass der Spieler mindestens 4 Mal gewinnt.

=== Beispielaufgabe zur Binomialverteilung Ein Glücksrad, bei dem die Trefferwahrscheinlichkeit 15% beträgt, wird 20 Mal gedreht. . Berechne den Erwartungswert. . Bestimme die Wahrscheinlichkeit dafür, dass der Spieler genau 3 Mal gewinnt. . Bestimme die Wahrscheinlichkeit dafür, dass der Spieler höchstens 10 Mal gewinnt. . Bestimme die Wahrscheinlichkeit dafür, dass der Spieler mindestens 4 Mal gewinnt.

Lösung:

Die Zufallsvariable X sei die Anzahl der Treffer und ist B20;320B_{20;\frac{3}{20}}B​20;​20​​3​​​​-verteilt.

  1. μ=n⋅p=20⋅320=3\mu=n\cdot p=20\cdot \frac{3}{20}= 3μ=n⋅p=20⋅​20​​3​​=3

  2. P(X=3)=B20;320(3)=0.2428288961492419P(X=3)=B_{20;\frac{3}{20}}(3)=0.2428288961492419P(X=3)=B​20;​20​​3​​​​(3)=0.2428288961492419

  3. P(X≤10)=∑k=010B20;320(k)=0.9999613672517918P(X\le 10)=\sum_{k=0}^{10} B_{20;\frac{3}{20}}(k)=0.9999613672517918P(X≤10)=∑​k=0​10​​B​20;​20​​3​​​​(k)=0.9999613672517918

  4. P(X≥4)=1−P(X≤3)=1−∑k=03B20;320(k)=0.35227482584329694P(X\ge4)=1-P(X\le3)=1-\sum_{k=0}^{3} B_{20;\frac{3}{20}}(k)= 0.35227482584329694P(X≥4)=1−P(X≤3)=1−∑​k=0​3​​B​20;​20​​3​​​​(k)=0.35227482584329694

!! !n:20 !p:0.15 !! *Lösung:* Die Zufallsvariable X sei die Anzahl der Treffer und ist $$B_{!!n!!;!!p!!}$$-verteilt. [start=1] . $$\mu=n\cdot p=!!n!!\cdot !!p!!= !!n*p!!$$ . $$P(X=3)=B_{!!n!!;!!p!!}(3)=!!#B(n,p,3),3)#!!$$ . $$P(X\le 10)=\sum_{k=0}^{10} B_{!!n!!;!!p!!}(k)=!!#sum(B(n,p,k),k,0,10)# !!$$ . $$P(X\ge4)=1-P(X\le3)=1-\sum_{k=0}^{3} B_{!!n!!;!!p!!}(k)= !!#1-sum(B(n,p,k),k,0,3)# !!$$

Standardabweichung

=== Standardabweichung

Die Form einer Binomialverteilung entspricht einer sogenannten Glockenkurve: einem Maximum in der Mitte, an den Rändern abflachend zur Null, insgesamt tatsächlich aber in der Form einer Glocke.

Für unser obiges Beispiel ist die Glockenkurve in rot eingezeichnet:

Die Form einer Binomialverteilung entspricht einer sogenannten Glockenkurve: einem Maximum in der Mitte, an den Rändern abflachend zur Null, insgesamt tatsächlich aber in der Form einer Glocke. Für unser obiges Beispiel ist die Glockenkurve in rot eingezeichnet:
!! !p:0.4 !n:5 !phi(m,s,x):=1/(s*sqrt(2*3.141592))*exp(-((x-m)^2)/(2*s^2)) !phi5(x):=phi(n*p,sqrt(n*p*(1-p)),x) !startx:-2 !endex:6 !starty:-0.03 !endey:.5 !! !ppp ratio:1,.5 xaxis:!!startx!!,!!endex!!,1 yaxis:!!starty!!,!!endey!!,1 pen:#ccccff,4 grid:-0.5,-0.5 pen:blue,10,0,0 polygon:-0.5,0,-0.5,!!B(5,p,0)!!,0.5,!!B(5,p,0)!!,0.5,0,-0.5,0 ,#aaaaff polygon:0.5,0,0.5,!!B(5,p,1)!!,1.5,!!B(5,p,1)!!,1.5,0,0.5 ,0,#aaaaff polygon:1.5,0,1.5,!!B(5,p,2)!!,2.5,!!B(5,p,2)!!,2.5,0,1.5 ,0,#aaaaff polygon:2.5,0,2.5,!!B(5,p,3)!!,3.5,!!B(5,p,3)!!,3.5,0,2.5 ,0,#aaaaff polygon:3.5,0,3.5,!!B(5,p,4)!!,4.5,!!B(5,p,4)!!,4.5,0,3.5 ,0,#aaaaff polygon:4.5,0,4.5,!!B(5,p,5)!!,5.5,!!B(5,p,5)!!,5.5,0,4.5 ,0,#aaaaff pen:red,10,0,0 function:phi5(x) !ppp

Die Extremstelle der Glockenkurve liegt bei μ\muμ, die Wendestellen bei μ±σ\mu\pm \sigmaμ±σ. Dieses σ\sigmaσ heißt Standardabweichung und hat für eine Binomialverteilung den Wert σ=n⋅p⋅(1−p) \sigma=\sqrt{n\cdot p \cdot (1-p)} σ=√​n⋅p⋅(1−p)​​​

Die Extremstelle der Glockenkurve liegt bei $$\mu$$, die Wendestellen bei $$\mu\pm \sigma$$. Dieses $$\sigma$$ heißt *Standardabweichung* und hat für eine Binomialverteilung den Wert $$ \sigma=\sqrt{n\cdot p \cdot (1-p)} $$

In unserem Beispiel mit n=5n=5n=5 und p=25p=\frac{2}{5}p=​5​​2​​ beträgt sie beispielsweise σ=5⋅25⋅(1−25)=1.0954451150103321 \sigma=\sqrt{5\cdot \frac{2}{5} \cdot (1-\frac{2}{5})}= 1.0954451150103321 σ=√​5⋅​5​​2​​⋅(1−​5​​2​​)​​​=1.0954451150103321 Somit liegen die Wendestellen ungefähr bei 2+1.1=3.1 2+1.1=3.1 2+1.1=3.1 und 2−1.1=0.9 2-1.1=0.9 2−1.1=0.9

Die Extremstelle liegt bei 5⋅25=25\cdot \frac{2}{5}=25⋅​5​​2​​=2.

In unserem Beispiel mit $$n=!!n!!$$ und $$p=!!p!!$$ beträgt sie beispielsweise $$ \sigma=\sqrt{!!n!!\cdot !!p!! \cdot (1-!!p!!)}= !!#sqrt(n*p*(1-p))#!! $$ Somit liegen die Wendestellen ungefähr bei $$ !!n*p!!+!!#round(sqrt(n*p*(1-p))*100)/100#!!=!!#round((n*p+ sqrt(n*p*(1-p)))*100)/100#!! $$ und $$ !!n*p!!-!!#round(sqrt(n*p*(1-p))*100)/100#!!=!!#round((n*p- sqrt(n*p*(1-p)))*100)/100#!! $$ Die Extremstelle liegt bei $$!!n!!\cdot !!p!!=!!n*p!!$$.
!! !p:0.4 !n:5 !phi(m,s,x):=1/(s*sqrt(2*3.141592))*exp(-((x-m)^2)/(2*s^2)) !phi5(x):=phi(n*p,sqrt(n*p*(1-p)),x) !startx:-2 !endex:6 !starty:-0.03 !endey:.5 !! !ppp ratio:1,.5 xaxis:!!startx!!,!!endex!!,1 yaxis:!!starty!!,!!endey!!,1 pen:#ccccff,4 grid:-0.5,-0.5 pen:blue,10,0,0 polygon:-0.5,0,-0.5,!!B(5,p,0)!!,0.5,!!B(5,p,0)!!,0.5,0,-0.5,0 ,#aaaaff polygon:0.5,0,0.5,!!B(5,p,1)!!,1.5,!!B(5,p,1)!!,1.5,0,0.5 ,0,#aaaaff polygon:1.5,0,1.5,!!B(5,p,2)!!,2.5,!!B(5,p,2)!!,2.5,0,1.5 ,0,#aaaaff polygon:2.5,0,2.5,!!B(5,p,3)!!,3.5,!!B(5,p,3)!!,3.5,0,2.5 ,0,#aaaaff polygon:3.5,0,3.5,!!B(5,p,4)!!,4.5,!!B(5,p,4)!!,4.5,0,3.5 ,0,#aaaaff polygon:4.5,0,4.5,!!B(5,p,5)!!,5.5,!!B(5,p,5)!!,5.5,0,4.5 ,0,#aaaaff pen:red,10,0,0 function:phi5(x) point:!!n*p!!,0,15 Point:!!n*p!!,!!phi5(n*p)!!,15 pen:green,10,0,0 point:!!n*p-sqrt(n*p*(1-p))!!,0,15 point:!!n*p+sqrt(n*p*(1-p))!!,0,15 point:!!n*p-sqrt(n*p*(1-p))!!,!!phi5(n*p-sqrt(n*p*(1-p)))!!,15 point:!!n*p+sqrt(n*p*(1-p))!!,!!phi5(n*p+sqrt(n*p*(1-p)))!!,15 !ppp

μ=2\mu=2μ=2

μ−σ=0.9\mu-\sigma=0.9μ−σ=0.9

μ+σ=3.1\mu+\sigma=3.1 μ+σ=3.1

$$\mu=2$$ $$\mu-\sigma=0.9$$ $$\mu+\sigma=3.1 $$

Die Standardabweichung σ\sigmaσ ist hilfreich, um mit ihnen die Sigma-Regeln zu formulieren:

So beträgt die Wahrscheinlichkeit, dass die Trefferzahl im Intervall [μ−σ;μ+σ][\mu-\sigma;\mu+\sigma][μ−σ;μ+σ] liegt, etwa 68 %. Bei unserem Beispiel also zwischen 0.90.90.9 und 3.13.13.1.

Ebenso kann man eine Regel für 2σ2\sigma2σ und 3σ3\sigma3σ angeben:

Die Standardabweichung $$\sigma$$ ist hilfreich, um mit ihnen die Sigma-Regeln zu formulieren: So beträgt die Wahrscheinlichkeit, dass die Trefferzahl im Intervall $$[\mu-\sigma;\mu+\sigma]$$ liegt, etwa 68 %. Bei unserem Beispiel also zwischen $$0.9$$ und $$3.1$$. Ebenso kann man eine Regel für $$2\sigma$$ und $$3\sigma$$ angeben:
!! !p:0.4 !n:5 !phi(m,s,x):=1/(s*sqrt(2*3.141592))*exp(-((x-m)^2)/(2*s^2)) !phi5(x):=phi(n*p,sqrt(n*p*(1-p)),x) !startx:-2 !endex:6 !starty:-0.03 !endey:.5 !! !ppp ratio:1,.5 xaxis:!!startx!!,!!endex!!,1 yaxis:!!starty!!,!!endey!!,0 pen:#ccccff,4 grid:-0.5,-0.5 pen:red,10,0,0 function:phi5(x) fill:0,phi5(x),0.9,3.1 pen:blue,10,0,0 fill:0,phi5(x),-0.2,0.9 fill:0,phi5(x),3.1,4.2 pen:green,10,0,0 fill:0,phi5(x),-1.3,-0.2 fill:0,phi5(x),4.2,5.3 !ppp
Intervall Wahrscheinlichkeit Fläche im Diagramm

[μ−σ;μ+σ][\mu-\sigma ; \mu+\sigma][μ−σ;μ+σ]

68,3%

[μ−2σ;μ+2σ][\mu-2\sigma;\mu+2\sigma][μ−2σ;μ+2σ]

95,4%

[μ−3σ;μ+3σ][\mu-3\sigma;\mu+3\sigma][μ−3σ;μ+3σ]

99,7%

|=== |Intervall|Wahrscheinlichkeit|Fläche im Diagramm |$$[\mu-\sigma ; \mu+\sigma]$$|68,3% |icon:circle[role=red] |$$[\mu-2\sigma;\mu+2\sigma]$$|95,4%|icon:circle[role=blue] icon:circle[role=red] icon:circle[role=blue] |$$[\mu-3\sigma;\mu+3\sigma]$$|99,7%|icon:circle[role=green] icon:circle[role=blue] icon:circle[role=red] icon:circle[role=blue] icon:circle[role=green] |===