\(\mu_X = 1 \cdot p + 0 \cdot (1 - p) = 0\)
Voor de variantie geldt:
\(\sigma_X^2 = E[X^2] - E^2[X] = 1^2 \cdot p + 0^2 \cdot (1 - p) - p^2 = p - p^2 = p \cdot (1 - p)\)
Definieer de schatter voor p:
\(\hat{p} = \frac{\sum_{i=1}^{N} X_i}{N}\)
Voor de verwachtingswaarde van deze schatter geldt:
\(E[\hat{p}] = p\)
Voor de variantie van de schatter geldt (Let op dit NIET de schatting van de variantie!):
\(\sigma^2_{\hat{p}} = \frac{\sigma_X^2}{N}\)
Voor de standaarddeviatie geldt dus:
\(\sigma_{\hat{p}} = \frac{\sigma_X}{\sqrt{N}}\)
Hieruit volgt direct dat als je het aantal punten met een factor 100 vergroot, de nauwkeurigheid van het antwoord van de schatter slechts een factor 10 beter wordt. Ofwel, per cijfer dat je extra wilt in je antwoord, moet je 100x zoveel punten nemen. Deze methode is dus slechts zinnig voor een paar cijfers achter de komma voordat je rekenkracht tekort komt.Voorbeeld: Stel:
\(N = 10^8\)
dan:
\(\sigma_{\hat{p}} = \frac{\frac{\pi}{4} \cdot (1 - \frac{\pi}{4})}{\sqrt{10^8}} \approx 4 \cdot 10^{-5}\)
Veel meer dan 4 a 5 cijfers nauwkeurig hoef je dus niet te verwachten.