Gdzie obowiązuje prawo wielkich liczb? Prawa wielkich liczb

Dystrybucja zmiennej losowej i jej własności.

Funkcja dystrybucyjna zmienna losowa X jest funkcją F(X), wyrażającą dla każdego x prawdopodobieństwo, że zmienna losowa X przyjmie wartość mniejszą niż x: F(x)=P(X

Funkcja F(x) Czasami nazywany funkcja integralna dystrybucja lub integralne prawo dystrybucji.

Własności funkcji rozkładu:

1. Dystrybucja zmiennej losowej jest funkcją nieujemną mieszczącą się w przedziale od zera do jedynki:

0 ≤ F(x) ≤ 1.

2. Funkcja rozkładu zmiennej losowej jest funkcją niemalejącą na całej osi liczbowej.

3. Przy minus nieskończoności rozkład jest równy zeru, przy plus nieskończoności jest równy jedności, czyli: F(-∞)= , F(+∞)= .

4. Prawdopodobieństwo wpadnięcia zmiennej losowej w przedział [x1,x2) (w tym x1) jest równe przyrostowi jej dystrybuanty w tym przedziale, tj. P(x 1 ≤ X< х 2) = F(x 2) - F(x 1).


Nierówność Markowa i Czebyszewa

Nierówność Markowa

Twierdzenie: Jeżeli zmienna losowa X przyjmuje tylko wartości nieujemne i ma oczekiwanie matematyczne, to dla dowolnej liczby dodatniej A prawdziwa jest następująca równość: P(x>A) ≤ .

Ponieważ zdarzenia X > A i X ≤ A są przeciwne, to zastępując P(X > A) wyrażamy 1 - P(X ≤ A), dochodzimy do innej postaci nierówności Markowa: P(X ≥ A) ≥1 - .

Nierówność Markowa k dotyczy dowolnych nieujemnych zmiennych losowych.

Nierówność Czebyszewa

Twierdzenie: Dla każdej zmiennej losowej, która ma matematyczne oczekiwanie i wariancję, obowiązuje nierówność Czebyszewa:

P (|X – a| > ε) ≤ D(X)/ε 2 lub P (|X – a| ≤ ε) ≥ 1 – DX/ε 2, gdzie a= M(X), ε>0.


Prawo wielkich liczb „w postaci” twierdzenia Czebyszewa.

Twierdzenie Czebyszewa: Jeśli różnice N niezależne zmienne losowe X1, X2,…. X N są ograniczone do tej samej stałej, a następnie z nieograniczonym wzrostem liczby Nśrednia arytmetyczna zmiennych losowych zbiega się prawdopodobieństwem do średniej arytmetycznej ich oczekiwań matematycznych a 1 , a 2 ...., a n, tj. .

Znaczenie prawa wielkich liczb polega na tym, że średnie wartości zmiennych losowych zmierzają do ich matematycznych oczekiwań, gdy N→ ∞ prawdopodobieństwa. Odchylenie wartości średnich od oczekiwań matematycznych staje się dowolnie małe z prawdopodobieństwem bliskim jedności, jeśli n jest wystarczająco duże. Innymi słowy, prawdopodobieństwo jakiegokolwiek odchylenia wartości średnich od A tak mały, jak rośniesz N.



30. Twierdzenie Bernoulliego.

Twierdzenie Bernoulliego: Częstotliwość zdarzeń w N powtarzanych niezależnych prób, w każdej z nich może wystąpić z tym samym prawdopodobieństwem p, przy nieograniczonym wzroście ich liczby N zbiegają się prawdopodobieństwem z prawdopodobieństwem p tego zdarzenia w oddzielnej próbie: \

Twierdzenie Bernoulliego jest konsekwencją twierdzenia Czebyszewa, ponieważ częstotliwość zdarzenia można przedstawić jako średnią arytmetyczną n niezależnych alternatywnych zmiennych losowych, które mają to samo prawo rozkładu.

18. Oczekiwanie matematyczne dyskretnych i ciągłych zmiennych losowych oraz ich własności.

Oczekiwanie matematyczne jest sumą iloczynów wszystkich jego wartości i odpowiadających im prawdopodobieństw

Dla dyskretnej zmiennej losowej:

Dla ciągłej zmiennej losowej:

Właściwości oczekiwań matematycznych:

1. Matematyczne oczekiwanie na stałą wartość jest równe samej stałej: M(C)=C

2. Stały współczynnik można wyjąć ze znaku oczekiwania matematycznego, tj. M(kX)=kM(X).

3. Oczekiwanie matematyczne sumy algebraicznej skończonej liczby zmiennych losowych jest równe tej samej sumie ich oczekiwań matematycznych, tj. M(X±Y)=M(X)±M(Y).

4. Oczekiwanie matematyczne iloczynu skończonej liczby niezależnych zmiennych losowych jest równe iloczynowi ich oczekiwań matematycznych: M(XY)=M(X)*M(Y).

5. Jeśli wszystkie wartości zmiennej losowej zostaną zwiększone (zmniejszone) o stałą C, wówczas matematyczne oczekiwanie tej zmiennej losowej wzrośnie (zmniejszy się) o tę samą stałą C: M(X±C)=M(X)±C.

6. Matematyczne oczekiwanie odchylenia zmiennej losowej od jej oczekiwań matematycznych wynosi zero: M=0.

PRAWO DUŻYCH LICZB

ogólna zasada, zgodnie z którą kombinacja czynników losowych prowadzi, w pewnych bardzo ogólnych warunkach, do wyniku prawie niezależnego od przypadku. Zbieżność częstotliwości występowania zdarzenia losowego z jego prawdopodobieństwem w miarę wzrostu liczby prób (po raz pierwszy zauważona najwyraźniej w grach hazardowych) może służyć jako pierwszy przykład działania tej zasady.

Na przełomie XVII i XVIII w. J. Bernoulli udowodnił twierdzenie stwierdzające, że w ciągu niezależnych prób, w których każde wystąpienie określonego zdarzenia ma tę samą wartość, prawdziwa jest zależność:

dla dowolnego - liczba wystąpień zdarzenia w pierwszych próbach, - częstotliwość wystąpień. Ten Twierdzenie Bernoulliego została rozszerzona przez S. Poissona na przypadek ciągu niezależnych prób, gdzie prawdopodobieństwo wystąpienia zdarzenia A może zależeć od liczby prób. Niech to prawdopodobieństwo dla k-tej próby będzie równe i niech


Następnie Twierdzenie Poissona stwierdza, że

dla dowolnego Pierwsze rygorystyczne podejście do tego twierdzenia przedstawił P. L. Czebyszew (1846), którego metoda jest całkowicie odmienna od metody Poissona i opiera się na pewnych skrajnych rozważaniach; S. Poisson wyprowadził (2) z przybliżonego wzoru na wskazane prawdopodobieństwo, opartego na zastosowaniu prawa Gaussa i wówczas jeszcze nie do końca uzasadnionego. S. Poisson po raz pierwszy zetknął się z terminem „prawo wielkich liczb”, które nazwał swoim uogólnieniem twierdzenia Bernoulliego.

Naturalne dalsze uogólnienie twierdzeń Bernoulliego i Poissona powstaje, jeśli zauważymy, że zmienne losowe można przedstawić jako sumę

niezależne zmienne losowe, gdzie jeśli A pojawia się w próbie Ath, oraz - W przeciwnym razie. Jednocześnie matematyczny oczekiwanie (zbiegające się ze średnią arytmetyczną oczekiwań matematycznych) jest równe p dla przypadku Bernoulliego i dla przypadku Poissona. Innymi słowy, w obu przypadkach uwzględniane jest odchylenie średniej arytmetycznej X k ze średniej arytmetycznej ich matematycznych oczekiwania.

W pracy P. L. Czebyszewa „O wartościach średnich” (1867) ustalono, że dla niezależnych zmiennych losowych relacja

(dla any ) jest prawdziwe przy bardzo ogólnych założeniach. P. L. Czebyszew założył, że matematyk. wszystkie oczekiwania są ograniczone przez tę samą stałą, chociaż z jego dowodu wynika, że ​​wymóg ograniczonych wariancji jest wystarczający

lub nawet żąda

Tym samym P. L. Czebyszew pokazał możliwość szerokiego uogólnienia twierdzenia Bernoulliego. A. A. Markov zauważył możliwość dalszych uogólnień i zaproponował używanie nazwy B. h.z. do całego zestawu uogólnień twierdzenia Bernoulliego [a w szczególności do (3)]. Metoda Czebyszewa opiera się na precyzyjnym ustaleniu ogólnych właściwości matematyki. oczekiwań oraz na stosowaniu tzw. Nierówności Czebyszewa[dla prawdopodobieństwa (3) daje oszacowanie postaci


granicę tę można oczywiście zastąpić dokładniejszą, pod bardziej znaczącymi ograniczeniami, patrz Nierówność Bernsteina]. Późniejsze dowody różnych form B. h.z. w takim czy innym stopniu są rozwinięciem metody Czebyszewa. Stosując odpowiednie „cięcie” zmiennych losowych (zastępując je zmiennymi pomocniczymi, a mianowicie: , gdzie są pewne stałe), A. A. Markov rozszerzył część B. w przypadkach, gdy nie istnieją różnice w terminach. Pokazał na przykład, że (3) zachodzi, jeśli dla pewnych stałych i wszyscy i

WYKŁAD 5

Powtórzenie tego, co zostało omówione

Część 1 - ROZDZIAŁ 9. PRAWO DUŻYCH LICZB. TWIERDZENIA OGRANICZENIA

Kiedy ustalono statystycznie
prawdopodobieństwo, jest interpretowane jako pewne
liczba, do której dąży krewny
częstotliwość zdarzenia losowego. Na
aksjomatyczna definicja prawdopodobieństwa –
w rzeczywistości jest to miara addytywna zbioru
wyniki sprzyjające szansie
wydarzenie. W pierwszym przypadku mamy do czynienia
granicę empiryczną, w drugim – z
teoretyczne pojęcie miary. Absolutnie nie
oczywiście odnoszą się do tego samego
pojęcie. Związek pomiędzy różnymi definicjami
prawdopodobieństwo ustala się na podstawie twierdzenia Bernoulliego,
co jest szczególnym przypadkiem prawa wielkości
liczby.

Wraz ze wzrostem liczby testów
zmierza do tego prawo dwumianu
normalna dystrybucja. To jest twierdzenie
Moivre-Laplace, czyli
szczególny przypadek granicy środkowej
twierdzenia. Ten ostatni stwierdza, że ​​funkcja
rozkład sumy niezależnych
zmienne losowe w miarę wzrostu liczby
warunki mają tendencję do normalności
prawo.
Prawo wielkich liczb i centralne
u podstaw leży twierdzenie graniczne
statystyka matematyczna.

9.1. Nierówność Czebyszewa

Niech zmienna losowa ξ ma
skończone oczekiwanie matematyczne
M[ξ] i wariancja D[ξ]. Następnie dla
dowolna liczba dodatnia ε
prawdziwa jest następująca nierówność:

Notatki

Dla zdarzenia odwrotnego:
Nierówność Czebyszewa jest ważna dla
jakiekolwiek prawo dystrybucyjne.
Układanie
fakt:
, otrzymujemy nietrywialne

9.2. Prawo wielkich liczb w postaci Czebyszewa

Twierdzenie Niech zmienne losowe
są parami niezależne i mają skończone
różnice są ograniczone do tego samego
stały
Następnie dla
każdy
mamy
Tak mówi prawo wielkich liczb
zbieżność prawdopodobieństwa średniej arytmetycznej zmiennych losowych (tj. zmiennej losowej)
do średniej arytmetycznej ich maty. oczekiwania (tj.
do zmiennej nielosowej).

9.2. Prawo wielkich liczb w postaci Czebyszewa: dodawanie

Twierdzenie (Markowa): prawo wielkości
liczby są spełnione, jeśli wariancja
suma zmiennych losowych nie rośnie
zbyt szybko, gdy n rośnie:

10. 9.3. Twierdzenie Bernoulliego

Twierdzenie: Rozważmy schemat Bernoulliego.
Niech μn będzie liczbą wystąpień zdarzenia A w
n niezależnych prób, p – prawdopodobieństwo wystąpienia zdarzenia A w jednym
test. Wtedy dla kogokolwiek
Te. prawdopodobieństwo, że odchylenie
względna częstotliwość zdarzenia losowego od
jego prawdopodobieństwo p będzie dowolnie modulo
jest mały, ma tendencję do jedności wraz ze wzrostem liczby
testy rz.

11.

Dowód: Zmienna losowa μn
zatem rozdzielone zgodnie z prawem dwumianu
mamy

12. 9.4. Funkcje charakterystyczne

Funkcja charakterystyczna losowości
ilość nazywana jest funkcją
gdzie exp(x) = np.
Zatem,
reprezentuje
matematyczne oczekiwania niektórych
złożona zmienna losowa
związane z rozmiarem. W szczególności, jeśli
- Dyskretna zmienna losowa,
dane przez szereg dystrybucyjny (xi, pi), gdzie i
= 1, 2,..., n, wtedy

13.

Dla ciągłej zmiennej losowej
z gęstością dystrybucji
prawdopodobieństwa

14.

15. 9.5. Centralne twierdzenie graniczne (twierdzenie Lapunowa)

16.

Powtórzyliśmy to, co omówiliśmy

17. PODSTAWY TEORII PRAWIDŁOWOŚCI I STATYSTYKI MATEMATYCZNEJ

CZĘŚĆ DRUGA. MATEMATYCZNY
STATYSTYKA

18. Motto

„Istnieją trzy rodzaje kłamstw: kłamstwa,
rażące kłamstwa i statystyki”
Benjamina Disraeliego

19. Wprowadzenie

Dwa główne problemy matematyki
Statystyka:
zbieranie i grupowanie danych statystycznych
dane;
rozwój metod analitycznych
odebrane dane w zależności od
celów badawczych.

20. Metody statystycznej analizy danych:

ocena nieznanego prawdopodobieństwa zdarzenia;
nieznane oszacowanie funkcji
dystrybucja;
estymacja parametrów znanych
dystrybucja;
testowanie hipotez statystycznych na temat gatunku
nieznana dystrybucja lub
wartości parametrów znanych
dystrybucje.

21. ROZDZIAŁ 1. PODSTAWOWE POJĘCIA STATYSTYKI MATEMATYCZNEJ

22. 1.1. Populacja i próba

Ogólna populacja - wszystko
wiele badanych obiektów,
Próbkowanie – zbiór obiektów losowo
wybranych z populacji ogólnej
na badania.
Wielkość populacji i
wielkość próby – liczba obiektów w populacji ogólnej i próbie – ustalimy
oznaczone odpowiednio jako N i n.

23.

Próbkę powtarza się, gdy
każdy wybrany obiekt wcześniej
wybranie następnego powoduje powrót do
ogółu społeczeństwa oraz
powtarzalne, jeśli zostało wybrane
obiektem w populacji ogólnej nie jest
zwroty.

24. Reprezentatywna próbka:

poprawnie reprezentuje cechy
ogółu społeczeństwa, tj. Jest
przedstawiciel (przedstawiciel).
Zgodnie z prawem wielkich liczb można stwierdzić, że
że warunek ten jest spełniony, jeżeli:
1) liczebność próby n jest wystarczająco duża;
2) każdy przykładowy obiekt został wybrany losowo;
3) dla każdego przedmiotu prawdopodobieństwo otrzymania
w próbce jest taki sam.

25.

Populacja i próba
może być jednowymiarowy
(pojedynczy czynnik)
i wielowymiarowe (wieloczynnikowe)

26. 1.2. Przykładowe prawo dystrybucji (szereg statystyczny)

Wprowadź próbkę o rozmiarze n
interesująca nas zmienna losowa ξ
(dowolny parametr obiektu
populacja) zajmuje n1
razy wartość x1, n2 razy wartość x2,... i
nk razy – wartość xk. Następnie obserwowalne
wartości x1, x2,..., xk zmiennej losowej
ξ nazywane są wariantami, a n1, n2,..., nk
– ich częstotliwości.

27.

Różnica xmax – xmin to zakres
próbki, stosunek ωi = ni /n –
opcje częstotliwości względnej xi.
To oczywiste

28.

Jeśli zapiszemy opcje w kolejności rosnącej, otrzymamy szereg odmian. Tabela składająca się z nich
uporządkowane warianty i ich częstotliwości
(i/lub częstotliwości względne)
nazywa się szeregiem statystycznym lub
przykładowe prawo dystrybucji.
- Odpowiednik prawa dystrybucji dyskretnej
zmienna losowa w teorii prawdopodobieństwa

29.

Jeśli seria zmian składa się z bardzo
duża liczba liczb lub
jakieś ciągłe
podpisz, użyj zgrupowanych
próbka. Aby to uzyskać, interwał wynosi
który zawiera wszystkie obserwacje
wartości charakterystyczne są podzielone na
kilka zwykle równych części
(podprzedziały) długości h. Na
kompilacja szeregów statystycznych w
Jako xi zwykle wybiera się środek
podprzedziałów, a ni jest równe liczbie
opcja należąca do i-tego podprzedziału.

30.

40
- Częstotliwości -
35
30
n2
n3
ns
n1
25
20
15
10
5
0
A
a+h/2 a+3h/2
- Opcje -
b-h/2
B

31. 1.3. Wielokąt częstotliwości, funkcja rozkładu próbki

Narysujmy wartości zmiennej losowej xi
oś odciętych i wartości ni wzdłuż osi rzędnych.
Linia przerywana, której odcinki są połączone
punkty o współrzędnych (x1, n1), (x2, n2),..., (xk,
nk) nazywany jest wielokątem
częstotliwość Jeśli zamiast tego
wartości bezwzględne ni
umieścić na osi rzędnych
częstotliwości względne ωi,
wtedy otrzymujemy wielokąt częstotliwości względnych

32.

Przez analogię do funkcji dystrybucji
dyskretna zmienna losowa wg
przykładowe prawo dotyczące dystrybucji może być
zbudować próbkę (empiryczną)
funkcja dystrybucyjna
gdzie sumowanie odbywa się po wszystkim
częstotliwości, którym odpowiadają wartości
opcja, mniejsze x. Zauważ, że
empiryczna funkcja dystrybucji
zależy od wielkości próbki n.

33.

W odróżnieniu od funkcji
,znaleziony
dla zmiennej losowej ξ przez doświadczonego
poprzez przetwarzanie danych statystycznych, funkcja prawdziwa
dystrybucja
związany z
nazywa się populację ogólną
teoretyczny. (Zwykle ogólne
całość jest tak duża, że
nie da się tego wszystkiego przetworzyć, tj.
możesz to tylko eksplorować
W teorii).

34.

Zauważ, że:

35. 1.4. Własności dystrybuanty empirycznej

Weszłam
pogląd

36.

Kolejna graficzna reprezentacja
interesująca nas próbka to
histogram - liczba kroków,
składający się z prostokątów, których podstawy są podprzedziałami
szerokość h i wysokości są odcinkami długości
ni/h (histogram częstotliwości) lub ωi/h
(histogram częstotliwości względnych).
W pierwszym przypadku
obszar histogramu jest równy objętości
próbki n, w
Drugi

37. Przykład

38. ROZDZIAŁ 2. CHARAKTERYSTYKA NUMERYCZNA PRÓBKI

39.

Problemem statystyki matematycznej jest
uzyskać z dostępnej próbki
informacja o generale
całość. Charakterystyka numeryczna próbki reprezentatywnej – ocena odpowiadających jej cech
badana zmienna losowa,
związany z generałem
jako całość.

40. 2.1. Średnia i wariancja próbki, punkty empiryczne

Nazywa się średnią próbki
średnia arytmetyczna wartości
opcja w próbce
Przyzwyczajona jest średnia próbki
statystyczna ocena matematyczna
oczekiwania wobec badanej zmiennej losowej.

41.

Nazywa się to wariancją próbki
wartość równa
Przykładowy średni kwadrat
odchylenie –

42.

Łatwo jest pokazać, co się dzieje
poniższa relacja jest wygodna dla
obliczenia wariancji:

43.

Inne cechy
serie odmian to:
tryb M0 – wariant posiadający
najwyższa częstotliwość i mediana me –
opcja dzieląca wariację
wiersz na dwie części równe liczbie
opcja.
2, 5, 2, 11, 5, 6, 3, 13, 5 (tryb = 5)
2, 2, 3, 5, 5, 5, 6, 11,13 (mediana = 5)

44.

Przez analogię do odpowiedniego
mogą być wyrażenia teoretyczne
budować punkty empiryczne,
wykorzystywane do celów statystycznych
oceny pierwotne i centralne
momenty badanej losowości
wielkie ilości.

45.

Przez analogię do chwil
teorie
prawdopodobieństwa do początkowego empirycznego
moment zamówienia m jest ilością
centralny punkt empiryczny
zamów m -

46. ​​​​2.2. Własności szacunków statystycznych parametrów rozkładu: bezstronność, efektywność, spójność

2.2. Właściwości szacunków statystycznych
parametry dystrybucji: bezstronność, efektywność, spójność
Po otrzymaniu szacunków statystycznych
parametry rozkładu losowego
wartości ξ: średnia próbki, wariancja próbki itp., musisz się upewnić
że są dobrym przybliżeniem
dla odpowiednich parametrów
rozkład teoretyczny ξ.
Znajdźmy warunki, które muszą to zrobić
być wyniesionym.

47.

48.

Nazywa się oszacowanie statystyczne A*
bezstronny, jeśli jest to matematyczne
oczekiwanie jest równe oszacowanemu parametrowi
populacja A dla dowolnego
wielkość próbki, tj.
W przypadku niespełnienia tego warunku następuje ocena
nazywany wysiedlonym.
Bezstronne oszacowanie nie jest wystarczające
warunek dobrego przybliżenia statystyki
A* ocenia prawdziwą (teoretyczną) wartość
oszacowanego parametru A.

49.

Rozproszenie poszczególnych wartości
w stosunku do średniej wartości M
zależy od wielkości dyspersji D.
Jeśli wariancja jest duża, wówczas wartość
znalezione na podstawie jednej próbki danych,
może znacznie różnić się od
oceniany parametr.
Dlatego niezawodny
wariancja estymacji D powinna
być mały. Ocena statystyczna
nazywa się skutecznym, jeśli
biorąc pod uwagę wielkość próbki n, jaką ma
najmniejszą możliwą różnicę.

50.

W kierunku szacunków statystycznych
jest inny wymóg
wypłacalność. Wynik nazywa się
spójne, jeśli jako n → to
z prawdopodobieństwem ma tendencję do
oceniany parametr. Zauważ, że
będzie bezstronny szacunek
spójne, jeśli jako n → jego
wariancja dąży do 0.

51. 2.3. Właściwości średniej próbki

Zakładamy, że opcje x1, x2,..., xn
są wartościami odpowiednich
niezależne zmienne losowe o jednakowym rozkładzie
,
matematyczne oczekiwania
i wariancja
. Następnie
średnia próbki jest możliwa
traktować jako zmienną losową

52.

Nieprzemieszczone. Z właściwości
z matematycznego oczekiwania wynika, że
te. średnia próbki wynosi
bezstronne oszacowanie matematyczne
oczekiwania wobec zmiennej losowej.
Potrafi także wykazywać skuteczność
szacunki oparte na średniej próbki z oczekiwań matematycznych (dla wartości normalnych
dystrybucja)

53.

Bogactwo. Niech a będzie ocenianym
parametr, a mianowicie matematyczny
oczekiwania populacji
- Wariancja populacji
.
Rozważmy nierówność Czebyszewa
Mamy:
Następnie
. Jak n → prawa strona
nierówność dąży do zera dla dowolnego ε > 0, tj.
a zatem wartość X reprezentująca próbkę
oszacowanie dąży do oszacowanego parametru a według prawdopodobieństwa.

54.

W ten sposób możemy podsumować
że średnia próbki wynosi
bezstronny, skuteczny (wg
przynajmniej na normalność
dystrybucja) i bogaci
matematyczne oszacowanie oczekiwań
zmienna losowa powiązana z
ogółu społeczeństwa.

55.

56.

WYKŁAD 6

57. 2.4. Własności wariancji próbki

Zbadajmy bezstronność wariancji próbki D* jako
oszacowania wariancji zmiennej losowej

58.

59.

60. Przykład

Znajdź średnią próbki, próbkę
wariancja i średni kwadrat
odchylenie, tryb i poprawiona próbka
wariancja dla próbki o następujących parametrach
prawo dystrybucyjne:
Rozwiązanie:

61.

62. ROZDZIAŁ 3. PUNKTOWA SZACOWANIE PARAMETRÓW ZNANEGO ROZKŁADU

63.

Przyjmiemy, że ogólna postać prawa
dystrybucja jest nam znana i
Pozostaje wyjaśnić szczegóły -
parametry go definiujące
obowiązująca forma. Istnieje
kilka metod rozwiązania tego problemu
zadania, z czego dwa my
rozważ: metodę momentów i metodę
najprawdopodobniej

64. 3.1. Metoda momentów

65.

Metoda momentów opracowana przez Karla
Pearson w 1894 r., na podstawie
używając tych przybliżonych równości:
chwile
są obliczane
teoretycznie zgodnie ze znanym prawem
rozkłady z parametrami θ i
wybrane momenty
są obliczane
według dostępnej próbki. Nieznany
opcje
są zdefiniowane w
w wyniku rozwiązania układu r równań,
powiązanie odpowiednich
aspekty teoretyczne i empiryczne,
Na przykład,
.

66.

Można wykazać, że szacunki
parametry θ uzyskane tą metodą
chwile, bogaty, ich
oczekiwania matematyczne są inne
od prawdziwych wartości parametrów do
wartość rzędu n–1 i średnią
odchylenia standardowe są
wartości rzędu n–0,5

67. Przykład

Wiadomo, że charakterystyczne ξ obiektów
populacji ogólnej, ma charakter losowy
wielkość, ma rozkład równomierny w zależności od parametrów a i b:
Wymagane jest określenie metodą momentów
parametry aib w oparciu o znaną próbkę
przeciętny
i wariancja próbki

68. Przypomnienie

α1 – oczekiwanie matematyczne β2 – dyspersja

69.

(*)

70.

71. 3.2. Metoda największej wiarygodności

Metoda opiera się na funkcji wiarygodności
L(x1, x2,..., xn, θ), co jest prawem
rozkład wektorowy
, Gdzie
zmienne losowe
przyjmować wartości
możliwość pobierania próbek, tj. mieć to samo
dystrybucja. Ponieważ zmienne losowe
są niezależne, funkcja wiarygodności ma postać:

72.

Idea najlepszej metody
prawdopodobieństwo jest takie, że my
szukamy takich wartości parametrów θ, z
które prawdopodobnie się pojawią
opcje wartości próbkowania x1, x2,..., xn
jest największy. Innymi słowy,
jako estymata parametrów θ
pobierany jest wektor, dla którego funkcja
wiarygodność ma charakter lokalny
maksimum dla danych x1, x2, …, xn:

73.

Szacunki metodą maksimum
prawdopodobieństwa uzyskuje się z
warunek konieczny ekstremum
funkcje L(x1,x2,..., xn,θ) w punkcie

74. Uwagi:

1. Podczas poszukiwania maksimum funkcji wiarygodności
Aby uprościć obliczenia, możesz to zrobić
działania, które nie zmieniają wyniku: po pierwsze,
użyj zamiast L(x1, x2,..., xn,θ) funkcji logarytmu wiarygodności l(x1, x2,..., xn,θ) =
ln L(x1, x2,..., xn,θ); po drugie, odrzuć w wyrażeniu
dla funkcji wiarygodności niezależnej od θ
terminy (dla l) lub dodatnie
współczynniki (dla L).
2. Oszacowania parametrów, które rozważaliśmy, to:
można nazwać szacunkami punktowymi, ponieważ dla
nieznany parametr θ jest określony przez jeden
pojedyńczy punkt
, który jest jego
przybliżona wartość. Jednak takie podejście
może prowadzić do poważnych błędów i błędów
szacunek może znacznie różnić się od rzeczywistego
wartości szacowanego parametru (szczególnie w
w przypadku małej próby).

75. Przykład

Rozwiązanie. W tym problemie należy ocenić
dwa nieznane parametry: a i σ2.
Funkcja logarytmiczna wiarygodności
wygląda jak

76.

Odrzucając termin w tym wzorze, który nie jest
zależy od a i σ2, utwórzmy układ równań
wiarygodność
Rozwiązując otrzymujemy:

77. ROZDZIAŁ 4. SZACOWANIE PRZEDZIAŁOWE PARAMETRÓW ZNANEGO ROZKŁADU

78.









(*)

79.

(*)

80. 4.1. Oszacowanie matematycznego oczekiwania wielkości o rozkładzie normalnym ze znaną wariancją







średnia próbki
jako wartość losowa



81.

Mamy:
(1)
(2)

82.

(2)
(1)
(*)
(*)

83. 4.2. Oszacowanie matematycznego oczekiwania wielkości o rozkładzie normalnym i nieznanej wariancji

84.




stopnie swobody. Gęstość

są ilości

85.

86. Gęstość rozkładu Studenta przy n – 1 stopniach swobody

87.

88.

89.







znaleźć według formuł

90. 4.3. Szacowanie odchylenia standardowego wielkości o rozkładzie normalnym





odchylenie σ.

nieznany matematyczny
Czekanie.

91. 4.3.1. Szczególny przypadek dobrze znanego oczekiwania matematycznego






Używanie ilości
,


wariancja próbki D*:

92.



wielkie ilości
mieć normalne




93.


warunki
Gdzie
– gęstość dystrybucji χ2


94.

95.

96.

97. 4.3.2. Szczególny przypadek nieznanego oczekiwania matematycznego








(gdzie zmienna losowa


χ2 z n–1 stopniami swobody.

98.

99. 4.4. Oszacowanie matematycznego oczekiwania zmiennej losowej dla próby losowej










duża wielkość próby (n >> 1).

100.




wielkie ilości
mający

dyspersja
i wynikowy
średnia próbki
jako znaczenie
zmienna losowa

ogrom
ma asymptotycznie


.

101.






użyj formuły

102.

103.

Wykład 7

104.

Powtórzenie tego, co zostało omówione

105. ROZDZIAŁ 4. SZACOWANIE PRZEDZIAŁOWE PARAMETRÓW ZNANEGO ROZKŁADU

106.

Problem oszacowania parametru znanej
dystrybucje można rozwiązać za pomocą
konstruowanie przedziału, w którym przy danym
prawdopodobieństwo otrzymania wartości prawdziwej
parametr. Ta metoda oceny
zwane estymacją przedziałową.
Zwykle z matematyki do oceny
parametru θ, konstruowana jest nierówność
(*)
gdzie liczba δ charakteryzuje dokładność oszacowania:
im mniejsze δ, tym lepsze oszacowanie.

107.

(*)

108. 4.1. Oszacowanie matematycznego oczekiwania wielkości o rozkładzie normalnym ze znaną wariancją

Niech badana zmienna losowa ξ będzie rozłożona zgodnie z prawem normalnym ze znaną
odchylenie standardowe σ i
nieznane oczekiwanie matematyczne a.
Wymagane ze względu na średnią wartość próbki
oszacuj oczekiwanie matematyczne ξ.
Tak jak poprzednio, rozważymy wynik
średnia próbki
jako wartość losowa
wartości, a wartościami są próbki x1, x2,…,
xn – odpowiednio obie wartości są takie same
rozproszone niezależne zmienne losowe
, z których każdy ma mat. oczekiwanie a i odchylenie standardowe σ.

109.

Mamy:
(1)
(2)

110.

(2)
(1)
(*)
(*)

111. 4.2. Oszacowanie matematycznego oczekiwania wielkości o rozkładzie normalnym i nieznanej wariancji

112.

Wiadomo, że zmienna losowa tn,
podane w ten sposób ma
Rozkład t-Studenta przy k = n – 1
stopnie swobody. Gęstość
rozkłady prawdopodobieństwa takie
są ilości

113.

114. Gęstość rozkładu Studenta przy n – 1 stopniach swobody

115.

116.

117.

Notatka. Z dużą liczbą stopni
wolność k Dystrybucja studencka
ma tendencję do rozkładu normalnego z
zerowe oczekiwanie matematyczne i
wariancja jednostkowa. Zatem dla k ≥ 30
przedział ufności jest możliwy w praktyce
znaleźć według formuł

118. 4.3. Szacowanie odchylenia standardowego wielkości o rozkładzie normalnym

Niech badana jest zmienna losowa
ξ ma rozkład normalny
z oczekiwaniem matematycznym a i
nieznany średni kwadrat
odchylenie σ.
Rozważmy dwa przypadki: ze znanymi i
nieznany matematyczny
Czekanie.

119. 4.3.1. Szczególny przypadek dobrze znanego oczekiwania matematycznego

Niech wartość M[ξ] = a będzie znana i wymagana
oszacuj tylko σ lub wariancję D[ξ] = σ2.
Przypomnijmy to, biorąc pod uwagę znaną matę. Czekanie
bezstronne oszacowanie wariancji wynosi
wariancja próbki D* = (σ*)2
Używanie ilości
,
zdefiniowany powyżej, wprowadzamy losowy
wielkość Y, przyjmująca wartości
wariancja próbki D*:

120.

Rozważ zmienną losową
Kwoty pod znakiem są losowe
wielkie ilości
mieć normalne
rozkład z gęstością fN (x, 0, 1).
Następnie Hn ma rozkład χ2 z n
stopnie swobody jako suma kwadratów n
niezależny standard (a = 0, σ = 1)
normalne zmienne losowe.

121.

Wyznaczmy przedział ufności od
warunki
Gdzie
– gęstość dystrybucji χ2
oraz γ – niezawodność (ufność
prawdopodobieństwo). Wielkość γ jest liczbowo równa
obszar zacieniowanej figury na ryc.

122.

123.

124.

125. 4.3.2. Szczególny przypadek nieznanego oczekiwania matematycznego

W praktyce najczęstszą sytuacją jest
gdy oba parametry normy są nieznane
rozkłady: oczekiwanie matematyczne a i
odchylenie standardowe σ.
W tym przypadku budowanie zaufania
przedział opiera się na twierdzeniu Fishera, z
kot. wynika z tego, że zmienna losowa
(gdzie zmienna losowa
przyjmując bezstronne wartości
wariancja próbki s2 ma rozkład
χ2 z n–1 stopniami swobody.

126.

127. 4.4. Oszacowanie matematycznego oczekiwania zmiennej losowej dla próby losowej

Szacunki matematyczne przedziałowe
oczekiwania M[ξ] uzyskane dla normy
rozłożona zmienna losowa ξ,
ogólnie rzecz biorąc, nie nadają się do
zmienne losowe mające inną postać
dystrybucje. Jest jednak sytuacja, kiedy
dla dowolnych zmiennych losowych jest to możliwe
użyj podobnego odstępu
relacje - ma to miejsce, gdy
duża wielkość próby (n >> 1).

128.

Podobnie jak powyżej, rozważymy opcje
x1, x2,..., xn jako wartości niezależne,
losowo o identycznym rozkładzie
wielkie ilości
mający
oczekiwanie matematyczne M[ξi] = mξ i
dyspersja
i wynikowy
średnia próbki
jako znaczenie
zmienna losowa
Zgodnie z centralnym twierdzeniem granicznym
ogrom
ma asymptotycznie
prawo dystrybucji normalnej, c
oczekiwanie matematyczne mξ i wariancja
.

129.

Zatem, jeśli znana jest wartość wariancji
zmienna losowa ξ, wtedy możemy
użyj przybliżonych wzorów
Jeżeli wartość rozproszenia wielkości ξ
jest nieznane, to dla dużego n jest to możliwe
użyj formuły
gdzie s – skorygowana wartość skuteczna. odchylenie

130.

Powtórzyliśmy to, co omówiliśmy

131. ROZDZIAŁ 5. TESTOWANIE HIPOTEZ STATYSTYCZNYCH

132.

Hipoteza statystyczna to hipoteza dotycząca
postaci nieznanego rozkładu lub parametrów
znany rozkład zmiennej losowej.
Testowalna hipoteza, zwykle oznaczana jako
H0 nazywa się hipotezą zerową lub główną.
Dodatkowo wykorzystano hipotezę H1,
hipoteza sprzeczna H0 nazywana jest
konkurencyjne lub alternatywne.
Test statystyczny zaawansowanego zera
hipoteza H0 polega na jej porównaniu z
przykładowe dane. Z taką kontrolą
Mogą wystąpić dwa rodzaje błędów:
a) błędy pierwszego rodzaju – przypadki odrzucenia
poprawna hipoteza H0;
b) błędy drugiego rodzaju – przypadki, gdy
przyjęto błędną hipotezę H0.

133.

Prawdopodobieństwo wystąpienia błędu I rodzaju będzie wynosić
nazwać poziom istotności i wyznaczyć
jako α.
Główna technika sprawdzania statystyk
hipoteza jest taka
Wartość jest obliczana na podstawie dostępnej próbki
kryterium statystyczne - niektóre
zmienna losowa T mająca znaną
prawo dystrybucji. Zakres wartości T,
zgodnie z którą powinna spełniać hipoteza główna H0
zostać odrzuconym, nazywany jest krytycznym i
zakres wartości T, dla którego ta hipoteza
mogą zostać zaakceptowane, – obszar akceptacji
hipotezy.

134.

135. 5.1. Testowanie hipotez dotyczących parametrów znanego rozkładu

5.1.1. Testowanie hipotezy o matematyce
oczekując losowego rozkładu normalnego
wielkie ilości
Niech zmienna losowa ξ ma
normalna dystrybucja.
Musimy sprawdzić to założenie
że jego oczekiwanie matematyczne jest równe
do jakiejś liczby a0. Rozważmy osobno
przypadki, gdy wariancja ξ jest znana i kiedy
ona jest nieznana.

136.

W przypadku znanej dyspersji D[ξ] = σ2,
podobnie jak w sekcji 4.1, definiujemy losowość
ilość przyjmująca wartości
średnia próbki. Hipoteza H0
początkowo sformułowany jako M[ξ] =
a0. Ponieważ średnia próbki
jest zatem bezstronnym oszacowaniem M[ξ].
hipotezę H0 można przedstawić jako

137.

Biorąc pod uwagę bezstronność poprawionych
wariancji próbki, hipoteza zerowa może być
napisz następująco:
gdzie jest zmienna losowa
pobiera wartości skorygowanej próbki
wariancja wartości ξ i jest zbliżona do losowej
wartość Z, o której mowa w paragrafie 4.2.
Jako kryterium statystyczne wybieramy
zmienna losowa
przyjmując większą wartość stosunku
wariancja próbki do mniejszej.

145.

Zmienna losowa F ma
Dystrybucja Fischera – Snedecora za pomocą
liczba stopni swobody k1 = n1 – 1 i k2
= n2 – 1, gdzie n1 to liczebność próby wg
który obliczył większy
skorygowana wariancja
i n2 –
wielkość drugiej próbki, dla której
stwierdzono mniejszą dyspersję.
Rozważmy dwa rodzaje rywalizacji
hipotezy

146.

147.

148. 5.1.3. Porównanie oczekiwań matematycznych niezależnych zmiennych losowych

Rozważmy najpierw przypadek normalny
rozkłady zmiennych losowych o znanych
rozbieżności, a następnie na ich podstawie - bardziej ogólne
przypadek dowolnego rozkładu wartości w
wystarczająco duże niezależne próbki.
Niech zmienne losowe ξ1 i ξ2 będą niezależne i
mają rozkład normalny i niech ich wariancje wynoszą D[ξ1]
i D[ξ2] są znane. (Można je znaleźć na przykład
z innego doświadczenia lub obliczone
W teorii). Pobiera się próbki o wielkości n1 i n2
odpowiednio. Pozwalać
– selektywny
średnie dla tych próbek. Wymagane przez wybór
średnia na danym poziomie istotności α
sprawdzić hipotezę o równości matematycznej
oczekiwania co do branych pod uwagę zmiennych losowych opierają się na rozważaniach apriorycznych,
w oparciu o warunki doświadczalne oraz
następnie założenia dotyczące parametrów
rozkłady są badane, jak pokazano
poprzednio. Jednak często się to zdarza
konieczność sprawdzenia zaawansowanych
hipoteza o prawie dystrybucji.
Zamierzone testy statystyczne
takie kontrole są zwykle nazywane
kryteria zgody.

154.

Znanych jest kilka kryteriów zgodności. Godność
Kryterium Pearsona jest jego uniwersalność. Z nim
można wykorzystać do testowania hipotez na temat różnych
prawa dystrybucji.
Test Pearsona opiera się na porównaniu częstotliwości
znalezione w próbce (częstotliwości empiryczne), z
częstotliwości obliczone na podstawie badanych
prawo dystrybucji (częstotliwości teoretyczne).
Zazwyczaj częstotliwości empiryczne i teoretyczne
różnić się. Należy ustalić, czy przez przypadek
rozbieżność częstotliwości, czy jest ona znacząca i wyjaśniona
w tym sensie, że częstości teoretyczne są obliczane na podstawie
błędna hipoteza dotycząca rozmieszczenia populacji ogólnej
całość.
Kryterium Pearsona, jak każde inne, odpowiada
Pytanie brzmi, czy proponowana hipoteza jest zgodna z
dane empiryczne na danym poziomie
znaczenie.

155. 5.2.1. Testowanie hipotezy rozkładu normalnego

Niech będzie zmienna losowa ξ i make
próbka o wystarczająco dużym rozmiarze n z dużym
liczba różnych opcji wartości. Wymagany
na poziomie istotności α sprawdź hipotezę zerową
H0, że zmienna losowa ξ ma rozkład
Cienki.
Dla wygody przetwarzania próbek weźmy dwie liczby
α i β:
i podziel przedział [α, β] przez s
podprzedziały. Zakładamy, że wartościami są opcje,
wpadające do każdego podprzedziału są w przybliżeniu równe
liczba określająca środek podprzedziału.
Licząc liczbę wariantów przypadających na każdą kwantillę rzędu α (0< α < 1) непрерывной
zmienna losowa ξ jest liczbą xα taką, że
dla których zachodzi równość
.
Kwantyl x½ nazywany jest medianą losową
wielkości ξ, kwantyle x0 i x2 są jej kwartylami, a
x0,1, x0,2,..., x0,9 – w decylach.
Dla standardowego rozkładu normalnego (a =
0, σ = 1) i dlatego
gdzie FN (x, a, σ) jest funkcją rozkładu normalnego
rozłożona zmienna losowa oraz Φ(x) –
Funkcja Laplace'a.
Kwantyl standardowego rozkładu normalnego
xα dla danego α można znaleźć z zależności

162. 6.2. Dystrybucja studencka

Jeśli
- niezależny
zmienne losowe posiadające
rozkład normalny z zerem
oczekiwanie matematyczne i
wówczas wariancja jednostkowa
rozkład zmiennej losowej
zwaną dystrybucją Studenta
z n stopniami swobody (W.S. Gosset).

Prawo wielkich liczb

Praktyka badania zjawisk losowych pokazuje, że choć wyniki poszczególnych obserwacji, nawet tych przeprowadzonych w tych samych warunkach, mogą znacznie się od siebie różnić, to jednocześnie średnie wyniki dla odpowiednio dużej liczby obserwacji są stabilne i słabo zależą od wyniki indywidualnych obserwacji. Teoretyczną podstawą tej niezwykłej właściwości zjawisk losowych jest prawo wielkich liczb. Ogólne znaczenie prawa wielkich liczb jest takie, że połączone działanie dużej liczby czynników losowych prowadzi do wyniku, który jest prawie niezależny od przypadku.

Centralne twierdzenie graniczne

Twierdzenie Lapunowa wyjaśnia powszechny rozkład prawa rozkładu normalnego i wyjaśnia mechanizm jego powstawania. Twierdzenie pozwala stwierdzić, że ilekroć zmienna losowa powstaje w wyniku dodania dużej liczby niezależnych zmiennych losowych, których wariancje są małe w porównaniu z rozrzutem sumy, prawo rozkładu tej zmiennej losowej zmienia się się prawie normalnym prawem. A ponieważ zmienne losowe są zawsze generowane przez nieskończoną liczbę przyczyn i najczęściej żadna z nich nie ma rozrzutu porównywalnego z rozproszeniem samej zmiennej losowej, większość zmiennych losowych spotykanych w praktyce podlega prawu rozkładu normalnego.

Rozważmy bardziej szczegółowo treść twierdzeń każdej z tych grup

W badaniach praktycznych bardzo ważne jest, aby wiedzieć, w jakich przypadkach można zagwarantować, że prawdopodobieństwo zdarzenia będzie albo wystarczająco małe, albo tak bliskie, jak to pożądane.

Pod prawo wielkich liczb i jest rozumiany jako zbiór twierdzeń, które stwierdzają, że z prawdopodobieństwem bliskim jedności (lub zera) zdarzenie nastąpi w zależności od bardzo dużej, nieskończenie rosnącej liczby zdarzeń losowych, z których każde ma tylko niewielki wpływ na To.

Mówiąc dokładniej, prawo wielkich liczb jest rozumiane jako zbiór twierdzeń, które stwierdzają, że z prawdopodobieństwem możliwie najbliższym jedności odchylenie średniej arytmetycznej wystarczająco dużej liczby zmiennych losowych od wartości stałej - średniej arytmetycznej ich matematycznych oczekiwań – nie przekroczy danej dowolnie małej liczby.

Indywidualne, izolowane zjawiska, które obserwujemy w przyrodzie i życiu społecznym często mają charakter losowy (np. zarejestrowany zgon, płeć urodzonego dziecka, temperatura powietrza itp.) ze względu na to, że na zjawiska te wpływa wiele czynników niezwiązane z istotą powstania lub rozwoju zjawiska. Nie da się przewidzieć ich całkowitego wpływu na obserwowane zjawisko, a w poszczególnych zjawiskach objawiają się one odmiennie. Na podstawie wyników jednego zjawiska nie można nic powiedzieć o wzorcach charakterystycznych dla wielu takich zjawisk.

Jednak od dawna zauważono, że średnia arytmetyczna liczbowych charakterystyk niektórych znaków (względna częstotliwość występowania zdarzenia, wyniki pomiarów itp.) przy dużej liczbie powtórzeń eksperymentu podlega bardzo niewielkim wahaniom. W przeciętnej przejawia się prawidłowość tkwiąca w istocie zjawisk, znosi się wpływ poszczególnych czynników, które powodowały losowość wyników pojedynczych obserwacji. Teoretycznie takie zachowanie średniej można wyjaśnić za pomocą prawa wielkich liczb. Jeżeli zostaną spełnione bardzo ogólne warunki dotyczące zmiennych losowych, to stabilność średniej arytmetycznej będzie zdarzeniem niemal pewnym. Warunki te stanowią najważniejszą treść prawa wielkich liczb.

Pierwszym przykładem działania tej zasady może być zbieżność częstotliwości występowania zdarzenia losowego z jego prawdopodobieństwem w miarę wzrostu liczby prób – fakt ustalony w twierdzeniu Bernoulliego (szwajcarski matematyk Jakub Bernoulli(1654-1705). Twierdzenie Bernulla jest jedną z najprostszych form prawa wielkich liczb i jest często stosowane w praktyce. Na przykład częstotliwość występowania dowolnej cechy respondenta w próbie jest traktowana jako oszacowanie odpowiedniego prawdopodobieństwa).

Wybitny matematyk francuski Simeona Denny’ego Poissona(1781-1840) uogólnili to twierdzenie i rozszerzyli je na przypadek, gdy prawdopodobieństwo zdarzeń w teście zmienia się niezależnie od wyników poprzednich testów. Jako pierwszy użył terminu „prawo wielkich liczb”.

Wielki rosyjski matematyk Pafnutij Lwowicz Czebyszew(1821 - 1894) udowodnili, że prawo wielkich liczb działa w zjawiskach o dowolnej zmienności i rozciąga się także na prawo średnich.

Dalsze uogólnienie twierdzeń prawa wielkich liczb wiąże się z nazwami A.A.Markov, S.N.Bernstein, A.Ya.Khinchin i A.N.Kolmlgorov.

Ogólne współczesne sformułowanie problemu, sformułowanie prawa wielkich liczb, rozwój pomysłów i metod udowadniania twierdzeń związanych z tym prawem należą do rosyjskich naukowców P. L. Czebyszew, A. A. Markow i A. M. Lapunow.

NIERÓWNOŚĆ CZEBYszewA

Rozważmy najpierw twierdzenia pomocnicze: lemat Czebyszewa i nierówność, za pomocą których można łatwo udowodnić prawo wielkich liczb w postaci Czebyszewa.

Lemat (Czebyszew).

Jeżeli wśród wartości zmiennej losowej X nie ma wartości ujemnych, wówczas prawdopodobieństwo, że przyjmie ona jakąś wartość przekraczającą liczbę dodatnią A, wynosi nie więcej niż ułamek, którego licznikiem jest matematyczne oczekiwanie losowości zmienną, a mianownikiem jest liczba A:

Dowód.Niech będzie znane prawo rozkładu zmiennej losowej X:

(i = 1, 2, ..., ) i uważamy, że wartości zmiennej losowej są w porządku rosnącym.

Ze względu na liczbę A wartości zmiennej losowej dzielą się na dwie grupy: niektóre nie przekraczają A, a inne są większe niż A. Załóżmy, że do pierwszej grupy zaliczają się pierwsze wartości zmiennej losowej zmienny ().

Ponieważ , to wszystkie warunki sumy są nieujemne. Dlatego odrzucając pierwsze człony wyrażenia, otrzymujemy następującą nierówność:

Ponieważ

,

To

co było do okazania

Zmienne losowe mogą mieć różne rozkłady przy tych samych oczekiwaniach matematycznych. Jednak dla nich lemat Czebyszewa da takie samo oszacowanie prawdopodobieństwa tego lub innego wyniku testu. Ta wada lematu związana jest z jego ogólnością: nie da się uzyskać lepszego oszacowania jednocześnie dla wszystkich zmiennych losowych.

Nierówność Czebyszewa .

Prawdopodobieństwo, że odchylenie zmiennej losowej od jej matematycznego oczekiwania przekroczy wartość bezwzględną liczby dodatniej, jest nie większe niż ułamek, którego licznikiem jest wariancja zmiennej losowej, a mianownikiem jest kwadrat

Dowód.Ponieważ jest to zmienna losowa, która nie przyjmuje wartości ujemnych, stosujemy nierówność z lematu Czebyszewa dla zmiennej losowej pod adresem:


co było do okazania

Konsekwencja. Ponieważ

,

To

- inna postać nierówności Czebyszewa

Przyjmijmy bez dowodu, że lemat Czebyszewa i nierówność są prawdziwe także dla ciągłych zmiennych losowych.

Nierówność Czebyszewa leży u podstaw jakościowych i ilościowych stwierdzeń prawa wielkich liczb. Wyznacza górną granicę prawdopodobieństwa, że ​​odchylenie wartości zmiennej losowej od jej oczekiwań matematycznych będzie większe niż pewna określona liczba. Godne uwagi jest to, że nierówność Czebyszewa pozwala oszacować prawdopodobieństwo zdarzenia dla zmiennej losowej, której rozkład jest nieznany, znane są jedynie jej matematyczne oczekiwanie i wariancja.

Twierdzenie. (Prawo wielkich liczb w formie Czebyszewa)

Jeżeli wariancje niezależnych zmiennych losowych są ograniczone jedną stałą C, a ich liczba jest wystarczająco duża, to prawdopodobieństwo, że odchylenie średniej arytmetycznej tych zmiennych losowych od średniej arytmetycznej ich oczekiwań matematycznych nie przekroczy wartości bezwzględnej dana liczba dodatnia, niezależnie od tego, jak mała jest, jest tak bliska jedności, jak to tylko możliwe:

.

Twierdzenie przyjmujemy bez dowodu.

Wniosek 1. Jeśli niezależne zmienne losowe mają takie same, równe oczekiwania matematyczne, ich wariancje są ograniczone przez tę samą stałą C, a ich liczba jest wystarczająco duża, to niezależnie od tego, jak mała jest dana liczba dodatnia, jakkolwiek bliskie jedności jest prawdopodobieństwo, że odchylenie średniej arytmetyki tych zmiennych losowych nie przekroczy wartości bezwzględnej.

Fakt, że średnią arytmetyczną wyników wystarczająco dużej liczby jej pomiarów dokonanych w tych samych warunkach przyjmuje się za przybliżoną wartość nieznanej wielkości, można uzasadnić tym twierdzeniem. Rzeczywiście wyniki pomiarów są losowe, ponieważ wpływa na nie wiele czynników losowych. Brak błędów systematycznych oznacza, że ​​oczekiwania matematyczne poszczególnych wyników pomiarów są takie same i równe. W konsekwencji, zgodnie z prawem wielkich liczb, średnia arytmetyczna wystarczająco dużej liczby pomiarów będzie się różnić praktycznie tak mało, jak to pożądane, od prawdziwej wartości pożądanej wielkości.

(Przypomnijmy, że błędy nazywamy systematycznymi, jeśli zniekształcają wynik pomiaru w tym samym kierunku według mniej lub bardziej jasnego prawa. Należą do nich błędy, które pojawiają się na skutek niedoskonałych instrumentów (błędy instrumentalne), ze względu na cechy osobowe obserwatora (błędy osobiste) itp.)

Konsekwencja 2 . (Twierdzenie Bernoulliego.)

Jeżeli prawdopodobieństwo wystąpienia zdarzenia A w każdym z niezależnych prób jest stałe, a ich liczba jest wystarczająco duża, to prawdopodobieństwo, że częstotliwość występowania zdarzenia różni się w minimalnym stopniu od prawdopodobieństwa jego wystąpienia, jest dowolnie bliskie do jedności:

Twierdzenie Bernoulliego stwierdza, że ​​jeśli prawdopodobieństwo zdarzenia jest takie samo we wszystkich próbach, to w miarę wzrostu liczby prób częstotliwość zdarzenia dąży do prawdopodobieństwa zdarzenia i przestaje być losowa.

W praktyce stosunkowo rzadko spotyka się eksperymenty, w których prawdopodobieństwo wystąpienia zdarzenia w dowolnym eksperymencie jest stałe, częściej zmienia się w różnych eksperymentach. Twierdzenie Poissona ma zastosowanie do schematu testowego tego typu:

Konsekwencja 3 . (Twierdzenie Poissona.)

Jeżeli prawdopodobieństwo wystąpienia zdarzenia w -tej próbie nie zmienia się, gdy znane są wyniki poprzednich testów, a ich liczba jest wystarczająco duża, to prawdopodobieństwo, że częstotliwość występowania zdarzenia różni się dowolnie mało od arytmetycznej średnia prawdopodobieństw jest arbitralnie bliska jedności:

Twierdzenie Poissona stwierdza, że ​​częstotliwość zdarzenia w szeregu niezależnych prób dąży do średniej arytmetycznej jego prawdopodobieństw i przestaje być przypadkowa.

Podsumowując, zauważamy, że żadne z rozważanych twierdzeń nie podaje dokładnej ani nawet przybliżonej wartości pożądanego prawdopodobieństwa, a jedynie wskazana jest jego dolna lub górna granica. Dlatego jeśli konieczne jest ustalenie dokładnej lub przynajmniej przybliżonej wartości prawdopodobieństw odpowiednich zdarzeń, możliwości tych twierdzeń są bardzo ograniczone.

Przybliżone prawdopodobieństwa dla dużych wartości można uzyskać jedynie za pomocą twierdzeń granicznych. W nich narzucane są dodatkowe ograniczenia na zmienne losowe (jak ma to miejsce na przykład w twierdzeniu Lapunowa) lub uwzględniane są zmienne losowe określonego typu (na przykład w twierdzeniu całkowym Moivre'a-Laplace'a).

Teoretyczne znaczenie twierdzenia Czebyszewa, które jest bardzo ogólnym sformułowaniem prawa wielkich liczb, jest ogromne. Jeśli jednak zastosujemy je do pytania, czy możliwe jest zastosowanie prawa wielkich liczb do ciągu niezależnych zmiennych losowych, to jeśli odpowiedź będzie twierdząca, twierdzenie będzie często wymagało, aby zmiennych losowych było znacznie więcej niż jest to wymagane. konieczne, aby prawo wielkich liczb zaczęło obowiązywać. Tę wadę twierdzenia Czebyszewa tłumaczy się jego ogólnym charakterem. Dlatego pożądane jest posiadanie twierdzeń, które dokładniej wskazywałyby dolną (lub górną) granicę pożądanego prawdopodobieństwa. Można je uzyskać nakładając na zmienne losowe dodatkowe ograniczenia, które zazwyczaj są spełnione w przypadku zmiennych losowych spotykanych w praktyce.

UWAGI O TREŚCI PRAWA WIELKICH LICZB

Jeśli liczba zmiennych losowych jest wystarczająco duża i spełniają one bardzo ogólne warunki, to niezależnie od tego, jak zostaną rozłożone, jest prawie pewne, że ich średnia arytmetyczna odbiega w pożądanym stopniu od wartości stałej - średniej arytmetycznej ich oczekiwań matematycznych , tj. jest wartością prawie stałą. Taka jest treść twierdzeń związanych z prawem wielkich liczb. W konsekwencji prawo wielkich liczb jest jednym z wyrazów dialektycznego związku między przypadkiem a koniecznością.

Można podać wiele przykładów pojawienia się nowych stanów jakościowych jako przejawów prawa wielkich liczb, przede wszystkim wśród zjawisk fizycznych. Rozważmy jeden z nich.

Według współczesnych koncepcji gazy składają się z pojedynczych cząstek - cząsteczek znajdujących się w chaotycznym ruchu i nie można dokładnie powiedzieć, gdzie w danym momencie będzie i z jaką prędkością będzie się poruszać ta lub inna cząsteczka. Jednak obserwacje pokazują, że całkowity wpływ cząsteczek, np. ciśnienia gazu na

ściance naczynia, objawia się niesamowitą konsystencją. Decyduje o tym liczba ciosów i siła każdego z nich. Choć to pierwsze i drugie jest kwestią przypadku, w normalnych warunkach urządzenia nie wykrywają wahań ciśnienia gazu. Wyjaśnia to fakt, że ze względu na ogromną liczbę cząsteczek, nawet w najmniejszych objętościach

zmiana ciśnienia o zauważalną wielkość jest praktycznie niemożliwa. W konsekwencji prawo fizyczne stwierdzające stałość ciśnienia gazu jest przejawem prawa wielkich liczb.

Stałość ciśnienia i niektóre inne cechy gazu służyły kiedyś jako przekonujący argument przeciwko molekularnej teorii struktury materii. Następnie nauczyli się izolować stosunkowo niewielką liczbę cząsteczek, zapewniając, że wpływ poszczególnych cząsteczek nadal pozostanie, a tym samym prawo wielkich liczb nie będzie mogło objawiać się w wystarczającym stopniu. Następnie udało się zaobserwować wahania ciśnienia gazu, potwierdzając hipotezę o budowie molekularnej substancji.

Prawo wielkich liczb leży u podstaw różnych rodzajów ubezpieczeń (ubezpieczenie życia ludzkiego na wszystkie możliwe okresy, mienia, zwierząt gospodarskich, upraw itp.).

Planując asortyment dóbr konsumpcyjnych uwzględnia się zapotrzebowanie społeczeństwa na nie. To żądanie ujawnia skutek prawa wielkich liczb.

Metoda doboru próby, szeroko stosowana w statystyce, ma swoje naukowe podstawy w prawie wielkich liczb. Na przykład jakość pszenicy przywiezionej z kołchozy do punktu skupu ocenia się na podstawie jakości ziarna przypadkowo przechwyconego w niewielkiej ilości. W miarce nie ma dużo ziarna w porównaniu do całej partii, ale w każdym razie miarę dobiera się tak, aby było w niej wystarczająco dużo ziaren

przejawy prawa wielkich liczb z dokładnością zaspokajającą potrzebę. Mamy prawo pobrać do próbki odpowiednie wskaźniki jako wskaźniki zanieczyszczenia, wilgotności i średniej masy ziarna z całej partii przychodzącego ziarna.

Dalsze wysiłki naukowców mające na celu pogłębienie treści prawa wielkich liczb miały na celu uzyskanie jak najbardziej ogólnych warunków stosowania tego prawa do ciągu zmiennych losowych. Od dłuższego czasu nie ma zasadniczych sukcesów w tym kierunku. Po P. L. Czebyszewie i A. A. Markowie dopiero w 1926 r. radzieckiemu akademikowi A. N. Kołmogorowi udało się uzyskać warunki konieczne i wystarczające, aby prawo wielkich liczb miało zastosowanie do ciągu niezależnych zmiennych losowych. W 1928 r. radziecki naukowiec A. Ya. Khinchin wykazał, że warunkiem wystarczającym zastosowania prawa wielkich liczb do ciągu niezależnych zmiennych losowych o jednakowym rozkładzie jest istnienie ich oczekiwań matematycznych.

W praktyce niezwykle ważne jest pełne wyjaśnienie kwestii stosowania prawa wielkich liczb do zależnych zmiennych losowych, ponieważ zjawiska w przyrodzie i społeczeństwie są od siebie zależne i wzajemnie się determinują. Wiele pracy poświęcono wyjaśnieniu ograniczeń, które należy nałożyć

na zależnych zmiennych losowych, aby można było do nich zastosować prawo wielkich liczb, a najważniejsze z nich należą do wybitnego rosyjskiego naukowca A. A. Markowa oraz wybitnych naukowców radzieckich S. N. Bernsteina i A. Ya Chinchina.

Głównym efektem tych prac jest to, że prawo wielkich liczb można zastosować do zależnych zmiennych losowych tylko wtedy, gdy istnieje silna zależność pomiędzy zmiennymi losowymi o liczbach bliskich, a pomiędzy zmiennymi losowymi o liczbach odległych zależność jest wystarczająco słaba. Przykładami zmiennych losowych tego typu są liczbowe charakterystyki klimatu. Na pogodę każdego dnia zauważalnie wpływa pogoda z dni poprzednich, a wpływ ten zauważalnie słabnie w miarę oddalania się od siebie. W konsekwencji długoterminowa średnia temperatura, ciśnienie i inne cechy klimatu danego obszaru, zgodnie z prawem wielkich liczb, powinny być praktycznie zbliżone do ich matematycznych oczekiwań. Te ostatnie stanowią obiektywną charakterystykę klimatu obszaru.

Aby eksperymentalnie przetestować prawo wielkich liczb, przeprowadzono następujące eksperymenty w różnym czasie.

1. Doświadczenie Buffona. Moneta została rzucona 4040 razy. Herb pojawił się 2048 razy. Częstotliwość jego występowania okazała się równa 0,50694 =

2. Doświadczenie osoba. Monetą rzuca się 12 000 i 24 000 razy. Częstotliwość utraty herbu w pierwszym przypadku wynosiła 0,5016, w drugim – 0,5005.

H. Doświadczenie Vestergaard. Z urny, w której znajdowała się równa liczba kul białych i czarnych, po 10 000 losowań otrzymano 5011 kul białych i 4989 czarnych (przy czym następną wyjętą kulę wrzucano z powrotem do urny). Częstotliwość białych kulek wynosiła 0,50110 = (), a częstość czarnych kulek wynosiła 0,49890.

4. Doświadczenie V.I. Romanowski. Rzucono czterema monetami 21 160 razy. Częstotliwości i częstotliwości różnych kombinacji herbów i znaków skrótu zostały rozdzielone w następujący sposób:

Kombinacje liczby orłów i resztek

Częstotliwości

Częstotliwości

Empiryczny

Teoretyczny

4 i 0

1 181

0,05858

0,0625

3 i 1

4909

0,24350

0,2500

2 i 2

7583

0,37614

0,3750

1 i 3

5085

0,25224

0,2500

1 i 4

0,06954

0,0625

Całkowity

20160

1,0000

1,0000

Wyniki eksperymentalnych testów prawa wielkich liczb przekonują nas, że częstości eksperymentalne są bardzo bliskie prawdopodobieństwu.

CENTRALNE TWIERDZENIE OGRANICZENIA

Nie jest trudno udowodnić, że suma dowolnej skończonej liczby niezależnych zmiennych losowych o rozkładzie normalnym również ma rozkład normalny.

Jeżeli niezależne zmienne losowe nie mają rozkładu normalnego, wówczas można na nie nałożyć bardzo luźne ograniczenia, a ich suma nadal będzie miała rozkład normalny.

Problem ten został postawiony i rozwiązany głównie przez rosyjskich naukowców P. L. Czebyszewa i jego uczniów A. A. Markowa i A. M. Lapunowa.

Twierdzenie (Łapunow).

Jeśli niezależne zmienne losowe mają skończone oczekiwania matematyczne i skończone wariancje , ich liczba jest dość duża i rośnie bez ograniczeń

,

gdzie są absolutne momenty centralne trzeciego rzędu, to ich suma ma rozkład z wystarczającym stopniem dokładności

(Właściwie przedstawiamy nie twierdzenie Lapunowa, ale jeden z jego następstw, ponieważ wniosek ten jest w zupełności wystarczający do zastosowań praktycznych. Dlatego warunek, zwany warunkiem Lapunowa, jest wymogiem silniejszym, niż jest to konieczne do udowodnienia samego twierdzenia Lapunowa. )

Znaczenie warunku jest takie, że wpływ każdego składnika (zmiennej losowej) jest niewielki w porównaniu z całkowitym efektem ich wszystkich. Wiele zjawisk losowych zachodzących w przyrodzie i życiu społecznym przebiega właśnie według tego schematu. W związku z tym twierdzenie Lapunowa ma wyjątkowo duże znaczenie, a prawo rozkładu normalnego jest jednym z podstawowych praw teorii prawdopodobieństwa.

Niech na przykład zostanie wyprodukowany pomiar jakiegoś rozmiaru. Różne odchylenia obserwowanych wartości od ich wartości prawdziwej (oczekiwania matematycznego) uzyskuje się w wyniku wpływu bardzo dużej liczby czynników, z których każdy generuje niewielki błąd, oraz . Wówczas całkowity błąd pomiaru jest zmienną losową, którą zgodnie z twierdzeniem Lapunowa należy rozłożyć zgodnie z prawem normalnym.

Na strzelanie z pistoletu pod wpływem bardzo dużej liczby przyczyn losowych pociski rozrzucane są po określonym obszarze. Losowe oddziaływania na trajektorię pocisku można uznać za niezależne. Każda przyczyna powoduje jedynie niewielką zmianę trajektorii w porównaniu do całkowitej zmiany pod wpływem wszystkich przyczyn. Należy zatem spodziewać się, że odchylenie miejsca wybuchu pocisku od celu będzie zmienną losową o rozkładzie normalnym.

Zgodnie z twierdzeniem Lapunowa możemy spodziewać się, że np. wzrost dorosłego mężczyzny jest zmienną losową o rozkładzie normalnym. Hipoteza ta, podobnie jak te rozważane w dwóch poprzednich przykładach, dobrze zgadza się z obserwacjami. Aby to potwierdzić, przedstawiamy rozkład według wzrostu 1000 dorosłych pracowników płci męskiej, odpowiadającej im teoretycznej liczbie mężczyzn, czyli liczbie mężczyzn, którzy powinni. mają wysokość tych grup, w oparciu o założenie rozkładu wzrostu mężczyzn zgodnie z prawem normalnym.

Wzrost (cm

liczba mężczyzn

dane eksperymentalne

teoretyczny

prognozy

143-146

146-149

149-152

152-155

155-158

158- 161

161- 164

164-167

167-170

170-173

173-176

176-179

179 -182

182-185

185-188

Trudno byłoby oczekiwać dokładniejszej zgodności danych eksperymentalnych z danymi teoretycznymi.

Na podstawie twierdzenia Lapunowa można łatwo udowodnić tezę, która będzie w przyszłości konieczna do uzasadnienia metody doboru próby.

Oferta.

Suma wystarczająco dużej liczby zmiennych losowych o jednakowym rozkładzie, mających absolutne momenty centralne trzeciego rzędu, rozkłada się zgodnie z prawem normalnym.

Twierdzenia graniczne teorii prawdopodobieństwa, twierdzenie Moivre'a-Laplace'a wyjaśniają naturę stabilności częstotliwości występowania zdarzenia. Charakter ten polega na tym, że graniczny rozkład liczby wystąpień zdarzenia przy nieograniczonym wzroście liczby prób (jeżeli prawdopodobieństwo zdarzenia jest takie samo we wszystkich próbach) jest rozkładem normalnym.

Układ zmiennych losowych.

Rozważane powyżej zmienne losowe były jednowymiarowe, tj. zostały określone przez jedną liczbę, jednak istnieją również zmienne losowe, które są określone przez dwa, trzy itd. liczby. Takie zmienne losowe nazywane są dwuwymiarowymi, trójwymiarowymi itp.

W zależności od rodzaju zmiennych losowych wchodzących w skład systemu, systemy mogą być dyskretne, ciągłe lub mieszane, jeżeli w systemie występują różne typy zmiennych losowych.

Przyjrzyjmy się bliżej układom dwóch zmiennych losowych.

Definicja. Prawo dystrybucji układ zmiennych losowych to relacja ustanawiająca związek między obszarami możliwych wartości układu zmiennych losowych a prawdopodobieństwami wystąpienia układu w tych obszarach.

Przykład. Z urny zawierającej 2 kule białe i trzy czarne wyjmujemy dwie kule. Niech będzie liczbą wylosowanych białych kul, a zmienną losową definiuje się w następujący sposób:


Utwórzmy tablicę rozkładu układu zmiennych losowych:

From jest prawdopodobieństwem, że nie zostaną wylosowane żadne białe kule (co oznacza, że ​​zostaną wylosowane dwie czarne kule), podczas gdy , wtedy

.

Prawdopodobieństwo

.

Prawdopodobieństwo

Prawdopodobieństwo - prawdopodobieństwo, że nie zostaną wylosowane żadne białe kule (i w związku z tym wylosowane zostaną dwie czarne), podczas gdy

Prawdopodobieństwo - prawdopodobieństwo, że wylosowana zostanie jedna kula biała (a zatem jedna czarna), podczas gdy wtedy

Prawdopodobieństwo - prawdopodobieństwo, że wylosowane zostaną dwie kule białe (a zatem nie będzie żadnej czarnej), podczas gdy , wtedy

.

Zatem szereg rozkładów dwuwymiarowej zmiennej losowej ma postać:

Definicja. Funkcja dystrybucyjna układ dwóch zmiennych losowych nazywany jest funkcją dwóch argumentówF( X, y) , równe prawdopodobieństwu wspólnego spełnienia dwóch nierównościX< X, Y< y.


Zwróćmy uwagę na następujące własności funkcji rozkładu układu dwóch zmiennych losowych:

1) ;

2) Funkcja dystrybucji jest funkcją niemalejącą dla każdego argumentu:

3) Prawdą jest, co następuje:

4)


5) Prawdopodobieństwo trafienia w losowy punkt ( X, Y ) w dowolny prostokąt o bokach równoległych do osi współrzędnych, oblicza się ze wzoru:


Gęstość rozkładu układu dwóch zmiennych losowych.

Definicja. Wspólna gęstość dystrybucji prawdopodobieństwa dwuwymiarowej zmiennej losowej ( X, Y ) nazywa się drugą mieszaną pochodną cząstkową funkcji rozkładu.

Jeżeli znana jest gęstość rozkładu, wówczas funkcję rozkładu można wyznaczyć ze wzoru:

Dwuwymiarowa gęstość rozkładu jest nieujemna, a całka podwójna z nieskończonymi granicami dwuwymiarowej gęstości jest równa jeden.

Ze znanej gęstości rozkładu łącznego można wyznaczyć gęstość rozkładu każdego ze składników dwuwymiarowej zmiennej losowej.

; ;

Warunkowe prawa dystrybucji.

Jak pokazano powyżej, znając prawo rozkładu łącznego, można łatwo znaleźć prawa rozkładu każdej zmiennej losowej zawartej w systemie.

Jednak w praktyce często spotyka się problem odwrotny – korzystając ze znanych praw rozkładu zmiennych losowych, znajdź ich wspólne prawo rozkładu.

W ogólnym przypadku problem ten jest nierozwiązywalny, ponieważ prawo rozkładu zmiennej losowej nie mówi nic o związku tej zmiennej z innymi zmiennymi losowymi.

Ponadto, jeśli zmienne losowe są od siebie zależne, to prawa rozkładu nie można wyrazić za pomocą praw rozkładu składników, ponieważ musi ustanowić połączenia między komponentami.

Wszystko to prowadzi do konieczności rozważenia praw dystrybucji warunkowej.

Definicja. Nazywa się rozkładem jednej zmiennej losowej zawartej w systemie, stwierdzonym pod warunkiem, że inna zmienna losowa przyjęła określoną wartość warunkowe prawo dystrybucji.

Prawo rozkładu warunkowego można określić zarówno za pomocą funkcji rozkładu, jak i gęstości rozkładu.

Warunkową gęstość rozkładu oblicza się za pomocą wzorów:

Warunkowa gęstość rozkładu ma wszystkie właściwości gęstości rozkładu jednej zmiennej losowej.

Warunkowe oczekiwanie matematyczne.

Definicja. Warunkowe oczekiwanie matematyczne Dyskretna zmienna losowa Y w X = x (x – pewna możliwa wartość X) jest iloczynem wszystkich możliwych wartości Y na ich prawdopodobieństwach warunkowych.

Dla ciągłych zmiennych losowych:

,

Gdzie F( y/ X) – gęstość warunkowa zmiennej losowej Y w X = x.

Warunkowe oczekiwanie matematyczneM( Y/ X)= F( X) jest funkcją X i nazywa się funkcja regresji X włączona Y.

Przykład.Znajdź warunkowe oczekiwanie matematyczne składnika Y o godz

X = x 1 =1 dla dyskretnej dwuwymiarowej zmiennej losowej podanej w tabeli:

Y

x 1 = 1

x2 =3

x 3 = 4

x 4 = 8

y 1 = 3

0,15

0,06

0,25

0,04

y2 =6

0,30

0,10

0,03

0,07

W podobny sposób wyznacza się wariancję warunkową i momenty warunkowe układu zmiennych losowych.

Zależne i niezależne zmienne losowe.

Definicja. Nazywa się zmienne losowe niezależny, jeżeli prawo rozkładu jednej z nich nie zależy od wartości drugiej zmiennej losowej.

Pojęcie zależności zmiennych losowych jest bardzo ważne w teorii prawdopodobieństwa.

Rozkłady warunkowe niezależnych zmiennych losowych są równe ich rozkładom bezwarunkowym.

Określmy warunki konieczne i wystarczające niezależności zmiennych losowych.

Twierdzenie. Y były niezależne, konieczne i wystarczające jest, aby funkcja rozkładu układu ( X, Y) był równy iloczynowi funkcji rozkładu składników.

Podobne twierdzenie można sformułować dla gęstości rozkładu:

Twierdzenie. Aby zmienne losowe X i Y były niezależne, konieczne i wystarczające jest, aby wspólna gęstość dystrybucji systemu ( X, Y) była równa iloczynowi gęstości rozkładu składników.

W praktyce stosowane są następujące wzory:

Dla dyskretnych zmiennych losowych:

Dla ciągłych zmiennych losowych:

Moment korelacji służy do scharakteryzowania zależności pomiędzy zmiennymi losowymi. Jeżeli zmienne losowe są niezależne, to ich moment korelacji jest równy zeru.

Moment korelacji ma wymiar równy iloczynowi wymiarów zmiennych losowych X i Y . Fakt ten jest wadą tej cechy liczbowej, ponieważ Przy różnych jednostkach miary uzyskuje się różne momenty korelacji, co utrudnia porównywanie momentów korelacji różnych zmiennych losowych.

Aby wyeliminować tę wadę, wykorzystuje się inną cechę - współczynnik korelacji.

Definicja. Współczynnik korelacji r xy zmienne losowe X i Y nazywa się stosunkiem momentu korelacji do iloczynu odchyleń standardowych tych wielkości.

Współczynnik korelacji jest wielkością bezwymiarową. Dla niezależnych zmiennych losowych współczynnik korelacji wynosi zero.

Nieruchomość: Wartość bezwzględna momentu korelacji dwóch zmiennych losowych X i Y nie przekracza średniej geometrycznej ich wariancji.

Nieruchomość: Wartość bezwzględna współczynnika korelacji nie przekracza jedności.

Nazywa się zmienne losowe współzależny, jeżeli ich moment korelacji jest różny od zera, oraz nieskorelowane, jeśli ich moment korelacji wynosi zero.

Jeśli zmienne losowe są niezależne, to są nieskorelowane, ale z braku korelacji nie można wnioskować, że są niezależne.

Jeżeli dwie wielkości są zależne, to mogą być albo skorelowane, albo nieskorelowane.

Często z danej gęstości rozkładu układu zmiennych losowych można wyznaczyć zależność lub niezależność tych zmiennych.

Wraz ze współczynnikiem korelacji stopień zależności zmiennych losowych można scharakteryzować inną wielkością, tzw współczynnik kowariancji. Współczynnik kowariancji podaje wzór:

Przykład. Podana jest gęstość rozkładu układu zmiennych losowych X iniezależny. Oczywiście będą one również nieskorelowane.

Regresja liniowa.

Rozważmy dwuwymiarową zmienną losową ( X, Y), gdzie X i Y są zależnymi zmiennymi losowymi.

Przedstawmy w przybliżeniu jedną zmienną losową jako funkcję innej. Dokładne dopasowanie nie jest możliwe. Założymy, że funkcja ta jest liniowa.

Aby wyznaczyć tę funkcję, pozostaje tylko znaleźć wartości stałe A I B.

Definicja. FunkcjonowaćG( X) zwany najlepsze przybliżenie zmienna losowa Y w sensie metody najmniejszych kwadratów, jeśli jest to oczekiwanie matematyczne

Przyjmuje najmniejszą możliwą wartość. Również funkcjonowaćG( X) zwany średnia regresja kwadratowa Y do X.

Twierdzenie. Liniowa regresja średniokwadratowa Y na X oblicza się ze wzoru:

w tej formule mx= M( X zmienna losowa Ywzględem zmiennej losowej X. Wartość ta charakteryzuje wielkość błędu generowanego przy zamianie zmiennej losowejYfunkcja liniowaG( X) = AX+B.

Jasne jest, że jeśli R= ± 1, wówczas wariancja resztowa wynosi zero, a zatem błąd wynosi zero i zmienna losowaYdokładnie reprezentowana przez funkcję liniową zmiennej losowej X.

Średnia kwadratowa linia regresji X NAYokreśla się podobnie według wzoru: X i Ymają względem siebie funkcje regresji liniowej, to mówią, że są to ilości X IYpołączony liniowa zależność korelacyjna.

Twierdzenie. Jeśli dwuwymiarowa zmienna losowa ( X, Y) ma rozkład normalny, następnie X i Y są połączone korelacją liniową.

NP. Nikiforowa


Podziel się ze znajomymi lub zapisz dla siebie:

Ładowanie...