Prawo wielkich liczb
Z Wikipedii
Definicja intuicyjna:
zwiększając liczbę doświadczeń opartych na zdarzeniach losowych, możemy oczekiwać rozkładu wyników coraz lepiej odpowiadającego rozkładowi prawdopodobieństw zdarzeń (na przykład, przeprowadzając wielką liczbę rzutów symetryczną monetą, możemy oczekiwać że stosunek liczby "wyrzuconych" orłów do liczby wszystkich rzutów będzie bliski 0,5 (wartości prawdop.); tym większe są na to szanse im większa jest liczba rzutów)
Słabe prawo wielkich liczb to twierdzenie matematyczne mówiące, że jeśli Xi są niezależnymi zmiennymi losowymi o identycznym rozkładzie z wartością oczekiwaną μ i skończoną wariancją, to dla każdego
- .
Słownie: niezależnie od wyboru szerokości przedział wokół wartości oczekiwanej, prawdopodobieństwo dla dużych n będzie dowolnie bliskie 1.
Innymi słowy, ciąg zmiennych losowych zbiega według prawdopodobieństwa do wartości oczekiwanej μ zmiennej losowej Xi. Dowód słabego prawa wielkich liczb opiera się na nierówności Czebyszewa.
[edytuj] Dowód
Wartość oczekiwana i wariancja podlegają następującym prawom:
- E(X + Y) = E(X) + E(Y),
- Var(X + Y) = Var(X) + Var(Y), jeśli X i Y są zmiennymi losowymi niezależnymi,
- E(nX) = nE(X),
- Var(nX) = n2Var(X),
a więc:
Co oznacza, że dla każdego :
A skoro wariancja dąży do zera, szansa że dana wartość będzie poza bardzo dowolnie małym przedziałem (jak udowodniliśmy wokół μ) również dąży do zera.
Mocne prawo wielkich liczb to twierdzenie matematyczne, które mówi że . Innymi słowy, ciąg zmiennych losowych zbiega z prawie wszędzie do wartości oczekiwanej μ zmiennej losowej Xi.
Istnieją też ogólniejsze wersje tych twierdzeń dla zmiennych losowych, które nie są niezależne, bądź mają nieskończoną wariancję.