Где применяется закон больших чисел. Законы больших чисел

Функция распределения случайной величины и ее свойства.

Функцией распределения случайной величины Х называется функция F(Х), выражающая для каждого х вероятность того, что случайная величина Х примет значение, меньшее х: F(x)=P(X

Функцию F(x) иногда называют интегральной функцией распределения или интегральным законом распределения.

Свойства функции распределения:

1.Функция распределения случайной величины есть неотрицательная функция, заключенная между нулем и единицей:

0 ≤ F(x) ≤ 1.

2. Функция распределения случайной величины есть неубывающая функция на всей числовой оси.

3. На минус бесконечности функция распределения равна нулю, на плюс бесконечности равна единицы, т.е.: F(-∞)= , F(+∞)= .

4.Вероятность попадания случайной величины в интервал [х1,х2) (включая х1) равна прирощению ее функции распределения на этом интервале, т.е. Р(х 1 ≤ Х < х 2) = F(x 2) - F(x 1).


Неравенство Маркова и Чебышева

Неравенство Маркова

Теорема : Если случайная величина Х принимает только неотрицательные значения и имеет математическое ожидание, то для любого положительного числа А верно равенство: P(x>A) ≤ .

Так как события Х > А и Х ≤ А противоположные, то заменяя Р(Х >А) выражаем 1 - Р(Х ≤ А), придем к другой форме неравенства Маркова: P(X ≥ A) ≥1 - .

Неравенство Маркова к применимо к любым неотрицательным случайным величинам.

Неравенство Чебышева

Теорема: Для любой случайной величины, имеющей математическое ожидание и дисперсию, справедливо неравенство Чебышева:

Р (|Х – a| > ε) ≤ D(X)/ε 2 или Р (|Х – a| ≤ ε) ≥ 1 – DX/ε 2 ,где а= М(Х), ε>0.


Закон больших чисел « в форме» теоремы Чебышева.

Теорема Чебышева: Если дисперсии n независимых случайных величин Х1, Х2,…. Хn ограничены одной и той же постоянной, то при неограниченном увеличении числа n средняя арифметическая случайных величин сходится по вероятности к средней арифметической их математических ожиданий а 1 ,а 2 ….,а n , т.е .

Смысл закона больших чисел заключается в том, что средние значения случайных величин стремятся к их математическому ожиданию при n → ∞ по вероятности. Отклонение средних значений от математического ожидания становится сколь угодно малым с вероятностью, близкой к единице, если n достаточно велико. Другими словами, вероятность любого отклонения средних значений от а сколь угодно мала с ростом n .



30. Теорема Бернулли .

Теорема Бернулли: Частость события в n повторных независимых испытаниях, в каждом из которых оно может произойти с одной и той же вероятностью р, при неограниченном увеличении числа n сходиться по вероятности к вероятности р этого события в отдельном испытании: \

Теорема Бернулли является следствием теоремы Чебышева, ибо частость события можно представить как среднюю арифметическую n независимых альтернативных случайных величин, имеющих один и тот же закон распределения.

18.Математическое ожидание дискретной и непрерывной случайной величины и их свойства .

Математическим ожиданием называется сумма произведений всех ее значений на соответствующие им вероятности

Для дискретной случайной величины:

Для непрерывной случайной величины:

Свойства математического ожидания:

1. Математическое ожидание постоянной величины равно самой постоянной: М(С)=С

2. Постоянный множитель можно вынести за знак математического ожидания, т.е М(кХ)=кМ(Х).

3. Математическое ожидание алгебраической суммы конечного числа случайных величин равно такой же сумме их математических ожиданий, т.е. M(X±Y)=M(X)±M(Y).

4. Математическое ожидание произведения конечного числа независимых случайных величин равно произведению их математических ожиданий: M(XY)=M(X)*M(Y).

5. Если все значения случайной величины увеличить (уменьшить) на постоянную С, то на эту же постоянную С увеличиться (уменьшиться) математическое ожидание этой случайной величины: M(X±C)=M(X)±C.

6. Математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю: M=0.

БОЛЬШИХ ЧИСЕЛ ЗАКОН

общий принцип, в силу к-рого совместное случайных факторов приводит при нек-рых весьма общих условиях к результату, почти не зависящему от случая. Сближение частоты наступления случайного события с его вероятностью при возрастании числа испытаний (подмеченное сначала, по-видимому, на азартных играх) может служить первым примером действия этого принципа.

На рубеже 17 и 18 вв. Я. Бернулли доказал теорему, утверждающую, что в последовательности независимых испытаний, в каждом из к-рых наступления нек-рого события Аимеет одно и то же значение верно соотношение:

при любом - число появлений события в первых писпытаниях, - частота появлений. Эта Бернулли теорема была распространена С. Пуассоном на случай последовательности независимых испытаний, где вероятность появления события Аможет зависеть от номера испытания. Пусть эта вероятность для k-го испытания равна и пусть


Тогда Пуассона теорема утверждает, что

при любом Первое строгое этой теоремы было дано П. Л. Чебышевым (1846), метод к-рого полностью отличен от метода Пуассона и основан на нек-рых экстремальных соображениях; С. Пуассон выводил (2) из приближенной формулы для указанной вероятности, основанной на использовании закона Гаусса и в то время еще строго не обоснованной. У С. Пуассона впервые встречается и термин "закон больших чисел", к-рым он назвал свое обобщение теоремы Бернулли.

Естественное дальнейшее обобщение теорем Бернулли и Пуассона вознпкает, если заметить, что случайные величины можно представить в виде суммы

независимых случайных величин, где , если Апоявляется в А--м испытании, и - в противном случае. При этом математич. ожидание (совпадающее со средним арифметическим математич. ожиданий ) равно рдля случая Бернулли и для случая Пуассона. Другими словами, в обоих случаях рассматривается отклонение среднего арифметического величин Х k от среднего арифметического их математич. ожиданий.

В работе П. Л. Чебышева "О средних величинах" (1867) было установлено, что для независимых случайных величин соотношение

(при любом ) верно при весьма ^бщих предположениях. П. Л. Чебышев предполагал, что математич. ожидания все ограничены одной и той же постоянной, хотя из его доказательства видно, что достаточно требования ограниченности дисперсий

или даже требования

Таким образом, П. Л. Чебышев показал возможность широкого обобщения теоремы Бернулли. А. А. Марков отметил возможность дальнейших обобщений и предложил применять название Б. ч. з. ко всей совокупности обобщений теоремы Бернулли [и в частности, к (3)]. Метод Чебышева основан на точном установлении общих свойств математич. ожиданий и на использовании так наз. Чебышева неравенства [для вероятности (3) оно дает оценку вида


эту границу можно заменить более точной, разумеется при более значительных ограничениях, см. Бернштейна неравенство ]. Последующие доказательства различных форм Б. ч. з. в той или иной степени являются развитием метода Чебышева. Применяя надлежащее "урезание" случайных величин (замену их вспомогательными величинами именно: , если где - нек-рые постоянные), А. А. Марков распространил Б. ч. з. на случаи, когда дисперсии слагаемых не существуют. Напр., он показал, что (3) имеет место, если при нек-рых постоянных и всех и

ЛЕКЦИЯ 5

Повторение пройденного

Часть 1 - ГЛАВА 9. ЗАКОН БОЛЬШИХ ЧИСЕЛ. ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ

При статистическом определении
вероятности она трактуется как некоторое
число, к которому стремится относительная
частота случайного события. При
аксиоматическом определении вероятность –
это, по сути, аддитивная мера множества
исходов, благоприятствующих случайному
событию. В первом случае имеем дело с
эмпирическим пределом, во втором – с
теоретическим понятием меры. Совсем не
очевидно, что они относятся к одному и тому же
понятию. Связь разных определений
вероятности устанавливает теорема Бернулли,
являющаяся частным случаем закона больших
чисел.

При увеличении числа испытаний
биномиальный закон стремится к
нормальному распределению. Это теорема
Муавра–Лапласа, которая является
частным случаем центральной предельной
теоремы. Последняя гласит, что функция
распределения суммы независимых
случайных величин с ростом числа
слагаемых стремится к нормальному
закону.
Закон больших чисел и центральная
предельная теорема лежат в основании
математической статистики.

9.1. Неравенство Чебышева

Пусть случайная величина ξ имеет
конечные математическое ожидание
M[ξ] и дисперсию D[ξ]. Тогда для
любого положительного числа ε
справедливо неравенство:

Примечания

Для противоположного события:
Неравенство Чебышева справедливо для
любого закона распределения.
Положив
факт:
, получаем нетривиальный

9.2. Закон больших чисел в форме Чебышева

Теорема Пусть случайные величины
попарно независимы и имеют конечные
дисперсии, ограниченные одной и той же
постоянной
Тогда для
любого
имеем
Таким образом, закон больших чисел говорит о
сходимости по вероятности среднего арифметического случайных величин (т. е. случайной величины)
к среднему арифметическому их мат. ожиданий (т. е.
к не случайной величине).

9.2. Закон больших чисел в форме Чебышева: дополнение

Теорема (Маркова): закон больших
чисел выполняется, если дисперсия
суммы случайных величин растет не
слишком быстро с ростом n:

10. 9.3. Теорема Бернулли

Теорема: Рассмотрим схему Бернулли.
Пусть μn – число наступлений события А в
n независимых испытаниях, р – вероятность наступления события А в одном
испытании. Тогда для любого
Т.е. вероятность того, что отклонение
относительной частоты случайного события от
его вероятности р будет по модулю сколь угодно
мало, оно стремится к единице с ростом числа
испытаний n.

11.

Доказательство: Случайная величина μn
распределена по биномиальному закону, поэтому
имеем

12. 9.4. Характеристические функции

Характеристической функцией случайной
величины называется функция
где exp(x) = ex.
Таким образом,
представляет собой
математическое ожидание некоторой
комплексной случайной величины
связанной с величиной. В частности, если
– дискретная случайная величина,
заданная рядом распределения {xi, pi}, где i
= 1, 2,..., n, то

13.

Для непрерывной случайной величины
с плотностью распределения
вероятности

14.

15. 9.5. Центральная предельная теорема (теорема Ляпунова)

16.

Повторили пройденное

17. ОСНОВЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ

ЧАСТЬ II. МАТЕМАТИЧЕСКАЯ
СТАТИСТИКА

18. Эпиграф

«Существует три вида лжи: ложь,
наглая ложь и статистика»
Бенджамин Дизраэли

19. Введение

Две основные задачи математической
статистики:
сбор и группировка статистических
данных;
разработка методов анализа
полученных данных в зависимости от
целей исследования.

20. Методы статистического анализа данных:

оценка неизвестной вероятности события;
оценка неизвестной функции
распределения;
оценка параметров известного
распределения;
проверка статистических гипотез о виде
неизвестного распределения или о
значениях параметров известного
распределения.

21. ГЛАВА 1. ОСНОВНЫЕ ПОНЯТИЯ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ

22. 1.1. Генеральная совокупность и выборка

Генеральная совокупность - все
множество исследуемых объектов,
Выборка – набор объектов, случайно
отобранных из генеральной совокупности
для исследования.
Объем генеральной совокупности и
объем выборки - число объектов в генеральной совокупности и выборке - будем
обозначать соответственно как N и n.

23.

Выборка бывает повторной, когда
каждый отобранный объект перед
выбором следующего возвращается в
генеральную совокупность, и
бесповторной, если отобранный
объект в генеральную совокупность не
возвращается.

24. Репрезентативная выборка:

правильно представляет особенности
генеральной совокупности, т.е. является
репрезентативной (представительной).
По закону больших чисел, можно утверждать,
что это условие выполняется, если:
1) объем выборки n достаточно большой;
2) каждый объект выборки выбран случайно;
3) для каждого объекта вероятность попасть
в выборку одинакова.

25.

Генеральная совокупность и выборка
могут быть одномерными
(однофакторными)
и многомерными (многофакторными)

26. 1.2. Выборочный закон распределения (статистический ряд)

Пусть в выборке объемом n
интересующая нас случайная величина ξ
(какой-либо параметр объектов
генеральной совокупности) принимает n1
раз значение x1, n2 раза – значение x2,... и
nk раз – значение xk. Тогда наблюдаемые
значения x1, x2,..., xk случайной величины
ξ называются вариантами, а n1, n2,..., nk
– их частотами.

27.

Разность xmax – xmin есть размах
выборки, отношение ωi = ni /n –
относительная частота варианты xi.
Очевидно, что

28.

Если мы запишем варианты в возрастающем порядке, то получим вариационный ряд. Таблица, состоящая из таких
упорядоченных вариант и их частот
(и/или относительных частот)
называется статистическим рядом или
выборочным законом распределения.
-- Аналог закона распределения дискретной
случайной величины в теории вероятности

29.

Если вариационный ряд состоит из очень
большого количества чисел или
исследуется некоторый непрерывный
признак, используют группированную
выборку. Для ее получения интервал, в
котором заключены все наблюдаемые
значения признака, разбивают на
несколько обычно равных частей
(подинтервалов) длиной h. При
составлении статистического ряда в
качестве xi обычно выбирают середины
подинтервалов, а ni приравнивают числу
вариант, попавших в i-й подинтервал.

30.

40
- Частоты -
35
30
n2
n3
ns
n1
25
20
15
10
5
0
a
a+h/2 a+3h/2
- Варианты -
b-h/2
b

31. 1.3. Полигон частот, выборочная функция распределения

Отложим значения случайной величины xi по
оси абсцисс, а значения ni – по оси ординат.
Ломаная линия, отрезки которой соединяют
точки с координатами (x1, n1), (x2, n2),..., (xk,
nk), называется полигоном
частот. Если вместо
абсолютных значений ni
на оси ординат отложить
относительные частоты ωi,
то получим полигон относительных частот

32.

По аналогии с функцией распределения
дискретной случайной величины по
выборочному закону распределения можно
построить выборочную (эмпирическую)
функцию распределения
где суммирование выполняется по всем
частотам, которым соответствуют значения
вариант, меньшие x. Заметим, что
эмпирическая функция распределения
зависит от объема выборки n.

33.

В отличие от функции
,найденной
для случайной величины ξ опытным
путем в результате обработки статистических данных, истинную функцию
распределения
,связанную с
генеральной совокупностью, называют
теоретической. (Обычно генеральная
совокупность настолько велика, что
обработать ее всю невозможно, т.е.
исследовать ее можно только
теоретически).

34.

Заметим, что:

35. 1.4. Свойства эмпирической функции распределения

Ступенчатый
вид

36.

Еще одним графическим представлением
интересующей нас выборки является
гистограмма – ступенчатая фигура,
состоящая из прямоугольников, основаниями которых служат подинтервалы
шириной h, а высотами – отрезки длиной
ni/h (гистограмма частот) или ωi/h
(гистограмма относительных частот).
В первом случае
площадь гистограммы равна объему
выборки n, во
втором – единице

37. Пример

38. ГЛАВА 2. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ ВЫБОРКИ

39.

Задача математической статистики –
по имеющейся выборке получить
информацию о генеральной
совокупности. Числовые характеристики репрезентативной выборки -оценка соответствующих характеристик
исследуемой случайной величины,
связанной с генеральной
совокупностью.

40. 2.1. Выборочное среднее и выборочная дисперсия, эмпирические моменты

Выборочным средним называется
среднее арифметическое значений
вариант в выборке
Выборочное среднее используется для
статистической оценки математического
ожидания исследуемой случайной величины.

41.

Выборочной дисперсией называется
величина, равная
Выборочным средним квадратическим
отклонением –

42.

Легко показать, что выполняется
следующее соотношение, удобное для
вычисления дисперсии:

43.

Другими характеристиками
вариационного ряда являются:
мода M0 – варианта, имеющая
наибольшую частоту, и медиана me –
варианта, которая делит вариационный
ряд на две части, равные числу
вариант.
2, 5, 2, 11, 5, 6, 3, 13, 5 (мода = 5)
2, 2, 3, 5, 5, 5, 6, 11,13 (медиана = 5)

44.

По аналогии с соответствующими
теоретическими выражениями можно
построить эмпирические моменты,
применяемые для статистической
оценки начальных и центральных
моментов исследуемой случайной
величины.

45.

По аналогии с моментами
теории
вероятностей начальным эмпирическим
моментом порядка m называется величина
центральным эмпирическим моментом
порядка m -

46. 2.2. Свойства статистических оценок параметров распределения: несмещен-ность, эффективность, состоятельность

2.2. Свойства статистических оценок
параметров распределения: несмещенность, эффективность, состоятельность
После получения статистических оценок
параметров распределения случайной
величины ξ: выборочного среднего, выборочной дисперсии и т. д., необходимо убедиться,
что они являются хорошим приближением
для соответствующих параметров
теоретического распределения ξ.
Найдем условия, которые должны для этого
выполняться.

47.

48.

Статистическая оценка A* называется
несмещенной, если ее математическое
ожидание равно оцениваемому параметру
генеральной совокупности A при любом
объеме выборки, т.е.
Если это условие не выполняется, оценка
называется смещенной.
Несмещенность оценки не является достаточным
условием хорошего приближения статистической
оценки A* к истинному (теоретическому) значению
оцениваемого параметра A.

49.

Разброс отдельных значений
относительно среднего значения M
зависит от величины дисперсии D.
Если дисперсия велика, то значение
найденное по данным одной выборки,
может значительно отличаться от
оцениваемого параметра.
Следовательно, для надежного
оценивания дисперсия D должна
быть мала. Статистическая оценка
называется эффективной, если при
заданном объеме выборки n она имеет
наименьшую возможную дисперсию.

50.

К статистическим оценкам
предъявляется еще требование
состоятельности. Оценка называется
состоятельной, если при n → она
стремится по вероятности к
оцениваемому параметру. Заметим, что
несмещенная оценка будет
состоятельной, если при n → ее
дисперсия стремится к 0.

51. 2.3. Свойства выборочного среднего

Будем полагать, что варианты x1, x2,..., xn
являются значениями соответствующих
независимых одинаково распределенных случайных величин
,
имеющих математическое ожидание
и дисперсию
. Тогда
выборочное среднее можно
рассматривать как случайную величину

52.

Несмещенность. Из свойств
математического ожидания следует, что
т.е. выборочное среднее является
несмещенной оценкой математического
ожидания случайной величины.
Можно также показать эффективность
оценки по выборочному среднему математического ожидания (для нормального
распределения)

53.

Состоятельность. Пусть a – оцениваемый
параметр, а именно математическое
ожидание генеральной совокупности
– дисперсия генеральной совокупности
.
Рассмотрим неравенство Чебышева
У нас:
тогда
. При n → правая часть
неравенства стремится к нулю для любого ε > 0, т.е.
и, следовательно, величина X, представляющая выборочную
оценку, стремится к оцениваемому параметру a по вероятности.

54.

Таким образом, можно сделать вывод,
что выборочное среднее является
несмещенной, эффективной (по
крайней мере, для нормального
распределения) и состоятельной
оценкой математического ожидания
случайной величины, связанной с
генеральной совокупностью.

55.

56.

ЛЕКЦИЯ 6

57. 2.4. Свойства выборочной дисперсии

Исследуем несмещенность выборочной дисперсии D* как
оценки дисперсии случайной величины

58.

59.

60. Пример

Найти выборочное среднее, выборочную
дисперсию и среднее квадратическое
отклонение, моду и исправленную выборочную
дисперсию для выборки, имеющей следующий
закон распределения:
Решение:

61.

62. ГЛАВА 3. ТОЧЕЧНОЕ ОЦЕНИВАНИЕ ПАРАМЕТРОВ ИЗВЕСТНОГО РАСПРЕДЕЛЕНИЯ

63.

Будем считать, что общий вид закона
распределения нам известен и
остается уточнить детали –
параметры, определяющие его
действительную форму. Существует
несколько методов решения этой
задачи, два из которых мы
рассмотрим: метод моментов и метод
наибольшего правдоподобия

64. 3.1. Метод моментов

65.

Метод моментов, развитый Карлом
Пирсоном в 1894 г., основан на
использовании этих приближенных равенств:
моменты
рассчитываются
теоретически по известному закону
распределения с параметрами θ, а
выборочные моменты
вычисляются
по имеющейся выборке. Неизвестные
параметры
определяются в
результате решения системы из r уравнений,
связывающих соответствующие
теоретический и эмпирический моменты,
например,
.

66.

Можно показать, что оценки
параметров θ, полученные методом
моментов, состоятельны, их
математические ожидания отличаются
от истинных значений параметров на
величину порядка n–1, а средние
квадратические отклонения являются
величинами порядка n–0,5

67. Пример

Известно, что характеристика ξ объектов
генеральной совокупности, являясь случайной
величиной, имеет равномерное распределение, зависящее от параметров a и b:
Требуется определить методом моментов
параметры a и b по известному выборочному
среднему
и выборочной дисперсии

68. Напоминание

α1 – мат.ожидание β2 - дисперсия

69.

(*)

70.

71. 3.2. Метод наибольшего правдоподобия

В основе метода лежит функция правдоподобия
L(x1, x2,..., xn, θ), являющаяся законом
распределения вектора
, где
случайные величины
принимают значения
вариант выборки, т.е. имеют одинаковое
распределение. Поскольку случайные величины
независимы, функция правдоподобия имеет вид:

72.

Идея метода наибольшего
правдоподобия состоит в том, что мы
ищем такие значения параметров θ, при
которых вероятность появления в
выборке значений вариант x1, x2,..., xn
является наибольшей. Иными словами,
в качестве оценки параметров θ
берется вектор,при котором функция
правдоподобия имеет локальный
максимум при заданных x1, x2, …, xn:

73.

Оценки по методу максимального
правдоподобия получаются из
необходимого условия экстремума
функции L(x1,x2,..., xn,θ) в точке

74. Примечания:

1. При поиске максимума функции правдоподобия
для упрощения расчетов можно выполнить
действия, не изменяющие результата: во-первых,
использовать вместо L(x1, x2,..., xn,θ) логарифмическую функцию правдоподобия l(x1, x2,..., xn,θ) =
ln L(x1, x2,..., xn,θ); во-вторых, отбросить в выражении
для функции правдоподобия не зависящие от θ
слагаемые (для l) или положительные
сомножители (для L).
2. Оценки параметров, рассмотренные нами,
можно назвать точечными оценками, так как для
неизвестного параметра θ определяется одна
единственная точка
, являющаяся его
приближенным значением. Однако такой подход
может приводить к грубым ошибкам, и точечная
оценка может значительно отличаться от истинного
значения оцениваемого параметра (особенно в
случае выборки малого объема).

75. Пример

Решение. В данной задаче следует оценить
два неизвестных параметра: a и σ2.
Логарифмическая функция правдоподобия
имеет вид

76.

Отбросив в этой формуле слагаемое, которое не
зависит от a и σ2, составим систему уравнений
правдоподобия
Решая, получаем:

77. ГЛАВА 4. ИНТЕРВАЛЬНОЕ ОЦЕНИВАНИЕ ПАРАМЕТРОВ ИЗВЕСТНОГО РАСПРЕДЕЛЕНИЯ

78.









(*)

79.

(*)

80. 4.1. Оценивание математического ожидания нормально распределенной величины при известной дисперсии







выборочное среднее
как значение случайной



81.

Имеем:
(1)
(2)

82.

(2)
(1)
(*)
(*)

83. 4.2. Оценивание математического ожидания нормально распределенной величины при неизвестной дисперсии

84.




степенями свободы. Плотность

величины есть

85.

86. Плотность распределения Стьюдента c n – 1 степенями свободы

87.

88.

89.







находить по формулам

90. 4.3. Оценивание среднего квадратического отклонения нормально распределенной величины





отклонением σ.

неизвестным математическим
ожиданием.

91. 4.3.1. Частный случай известного математического ожидания






Используя величины
,


выборочной дисперсии D*:

92.



величины
имеют нормальное




93.


условия
где
– плотность распределения χ2


94.

95.

96.

97. 4.3.2. Частный случай неизвестного математического ожидания








(где случайная величина


χ2 с n–1 степенями свободы.

98.

99. 4.4. Оценивание математического ожидания случайной величины для произвольной выборки










выборке большого объема (n >> 1).

100.




величин
, имеющих

дисперсию
, а полученное
выборочное среднее
как значение
случайной величины

величина
имеет асимптотически


.

101.






использовать формулу

102.

103.

Лекция 7

104.

Повторение пройденного

105. ГЛАВА 4. ИНТЕРВАЛЬНОЕ ОЦЕНИВАНИЕ ПАРАМЕТРОВ ИЗВЕСТНОГО РАСПРЕДЕЛЕНИЯ

106.

Задачу оценивания параметра известного
распределения можно решать путем
построения интервала, в который с заданной
вероятностью попадает истинное значение
параметра. Такой метод оценивания
называется интервальной оценкой.
Обычно в математике для оценки
параметра θ строится неравенство
(*)
где число δ характеризует точность оценки:
чем меньше δ, тем лучше оценка.

107.

(*)

108. 4.1. Оценивание математического ожидания нормально распределенной величины при известной дисперсии

Пусть исследуемая случайная величина ξ распределена по нормальному закону с известным
средним квадратическим отклонением σ и
неизвестным математическим ожиданием a.
Требуется по значению выборочного среднего
оценить математическое ожидание ξ.
Как и ранее, будем рассматривать получаемое
выборочное среднее
как значение случайной
величины, а значения вариант выборки x1, x2, …,
xn – соответственно как значения одинаково
распределенных независимых случайных величин
, каждая из которых имеет мат. ожидание a и среднее квадратическое отклонение σ.

109.

Имеем:
(1)
(2)

110.

(2)
(1)
(*)
(*)

111. 4.2. Оценивание математического ожидания нормально распределенной величины при неизвестной дисперсии

112.

Известно, что случайная величина tn,
заданная таким образом, имеет
распределение Стьюдента с k = n – 1
степенями свободы. Плотность
распределения вероятностей такой
величины есть

113.

114. Плотность распределения Стьюдента c n – 1 степенями свободы

115.

116.

117.

Примечание. При большом числе степеней
свободы k распределение Стьюдента
стремится к нормальному распределению с
нулевым математическим ожиданием и
единичной дисперсией. Поэтому при k ≥ 30
доверительный интервал можно на практике
находить по формулам

118. 4.3. Оценивание среднего квадратического отклонения нормально распределенной величины

Пусть исследуемая случайная величина
ξ распределена по нормальному закону
с математическим ожиданием a и
неизвестным средним квадратическим
отклонением σ.
Рассмотрим два случая: с известным и
неизвестным математическим
ожиданием.

119. 4.3.1. Частный случай известного математического ожидания

Пусть известно значение M[ξ] = a и требуется
оценить только σ или дисперсию D[ξ] = σ2.
Напомним, что при известном мат. ожидании
несмещенной оценкой дисперсии является
выборочная дисперсия D* = (σ*)2
Используя величины
,
определенные выше, введем случайную
величину Y, принимающую значения
выборочной дисперсии D*:

120.

Рассмотрим случайную величину
Стоящие под знаком суммы случайные
величины
имеют нормальное
распределение с плотностью fN (x, 0, 1).
Тогда Hn имеет распределение χ2 с n
степенями свободы как сумма квадратов n
независимых стандартных (a = 0, σ = 1)
нормальных случайных величин.

121.

Определим доверительный интервал из
условия
где
– плотность распределения χ2
и γ – надежность (доверительная
вероятность). Величина γ численно равна
площади заштрихованной фигуры на рис.

122.

123.

124.

125. 4.3.2. Частный случай неизвестного математического ожидания

На практике чаще всего встречается ситуация,
когда неизвестны оба параметра нормального
распределения: математическое ожидание a и
среднее квадратическое отклонение σ.
В этом случае построение доверительного
интервала основывается на теореме Фишера, из
кот. следует, что случайная величина
(где случайная величина
принимающая значения несмещенной
выборочной дисперсии s2, имеет распределение
χ2 с n–1 степенями свободы.

126.

127. 4.4. Оценивание математического ожидания случайной величины для произвольной выборки

Интервальные оценки математического
ожидания M[ξ], полученные для нормально
распределенной случайной величины ξ ,
являются, вообще говоря, непригодными для
случайных величин, имеющих иной вид
распределения. Однако есть ситуация, когда
для любых случайных величин можно
пользоваться подобными интервальными
соотношениями, – это имеет место при
выборке большого объема (n >> 1).

128.

Как и выше, будем рассматривать варианты
x1, x2,..., xn как значения независимых,
одинаково распределенных случайных
величин
, имеющих
математическое ожидание M[ξi] = mξ и
дисперсию
, а полученное
выборочное среднее
как значение
случайной величины
Согласно центральной предельной теореме
величина
имеет асимптотически
нормальный закон распределения c
математическим ожиданием mξ и дисперсией
.

129.

Поэтому, если известно значение дисперсии
случайной величины ξ, то можно
пользоваться приближенными формулами
Если же значение дисперсии величины ξ
неизвестно, то при больших n можно
использовать формулу
где s – исправленное ср.-кв. отклонение

130.

Повторили пройденное

131. ГЛАВА 5. ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ

132.

Статистической гипотезой называют гипотезу о
виде неизвестного распределения или о параметрах
известного распределения случайной величины.
Проверяемая гипотеза, обозначаемая обычно как
H0, называется нулевой или основной гипотезы.
Дополнительно используемая гипотеза H1,
противоречащая гипотезе H0, называется
конкурирующей или альтернативной.
Статистическая проверка выдвинутой нулевой
гипотезы H0 состоит в ее сопоставлении с
выборочными данными. При такой проверке
возможно появление ошибок двух видов:
а) ошибки первого рода – случаи, когда отвергается
правильная гипотеза H0;
б) ошибки второго рода – случаи, когда
принимается неверная гипотеза H0.

133.

Вероятность ошибки первого рода будем
называть уровнем значимости и обозначать
как α.
Основной прием проверки статистических
гипотез заключается в том, что по
имеющейся выборке вычисляется значение
статистического критерия – некоторой
случайной величины T, имеющей известный
закон распределения. Область значений T,
при которых основная гипотеза H0 должна
быть отвергнута, называют критической, а
область значений T, при которых эту гипотезу
можно принять, – областью принятия
гипотезы.

134.

135. 5.1. Проверка гипотез о параметрах известного распределения

5.1.1. Проверка гипотезы о математическом
ожидании нормально распределенной случайной
величины
Пусть случайная величина ξ имеет
нормальное распределение.
Требуется проверить предположение о том,
что ее математическое ожидание равно
некоторому числу a0. Рассмотрим отдельно
случаи, когда дисперсия ξ известна и когда
она неизвестна.

136.

В случае известной дисперсии D[ξ] = σ2,
как и в п. 4.1, определим случайную
величину, принимающую значения
выборочного среднего. Гипотеза H0
изначально формулируется как M[ξ] =
a0. Поскольку выборочное среднее
является несмещенной оценкой M[ξ], то
гипотезу H0 можно представить как

137.

Учитывая несмещенность исправленных
выборочных дисперсий, нулевую гипотезу можно
записать следующим образом:
где случайная величина
принимает значения исправленной выборочной
дисперсии величины ξ и аналогична случайной
величине Z, рассмотренной в п. 4.2.
В качестве статистического критерия выберем
случайную величину
принимающую значение отношения бóльшей
выборочной дисперсии к меньшей.

145.

Случайная величина F имеет
распределение Фишера – Снедекора с
числом степеней свободы k1 = n1 – 1 и k2
= n2 – 1, где n1 – объем выборки, по
которой вычислена бóльшая
исправленная дисперсия
, а n2 –
объем второй выборки, по которой
найдена меньшая дисперсия.
Рассмотрим два вида конкурирующих
гипотез

146.

147.

148. 5.1.3. Сравнение математических ожиданий независимых случайных величин

Сначала рассмотрим случай нормального
распределения случайных величин с известными
дисперсиями, а затем на его основе – более общий
случай произвольного распределения величин при
достаточно больших независимых выборках.
Пусть случайные величины ξ1 и ξ2 независимы и
распределены нормально, и пусть их дисперсии D[ξ1]
и D[ξ2] известны. (Например, они могут быть найдены
из какого-то другого опыта или рассчитаны
теоретически). Извлечены выборки объемом n1 и n2
соответственно. Пусть
– выборочные
средние для этих выборок. Требуется по выборочным
средним при заданном уровне значимости α
проверить гипотезу о равенстве математических
ожиданий рассматриваемых случайных величин сделать из априорных соображений,
основываясь на условиях эксперимента, и
тогда предположения о параметрах
распределения исследуются, как показано
ранее. Однако весьма часто возникает
необходимость проверить выдвинутую
гипотезу о законе распределения.
Статистические критерии, предназначенные
для таких проверок, обычно называются
критериями согласия.

154.

Известно несколько критериев согласия. Достоинством
критерия Пирсона является его универсальность. С его
помощью можно проверять гипотезы о различных
законах распределения.
Критерий Пирсона основан на сравнении частот,
найденных по выборке (эмпирических частот), с
частотами, рассчитанными с помощью проверяемого
закона распределения (теоретическими частотами).
Обычно эмпирические и теоретические частоты
различаются. Следует выяснить, случайно ли
расхождение частот или оно значимо и объясняется
тем, что теоретические частоты вычислены исходя из
неверной гипотезы о распределении генеральной
совокупности.
Критерий Пирсона, как и любой другой, отвечает на
вопрос, есть ли согласие выдвинутой гипотезы с
эмпирическими данными при заданном уровне
значимости.

155. 5.2.1. Проверка гипотезы о нормальном распределении

Пусть имеется случайная величина ξ и сделана
выборка достаточно большого объема n с большим
количеством различных значений вариант. Требуется
при уровне значимости α проверить нулевую гипотезу
H0 о том, что случайная величина ξ распределена
нормально.
Для удобства обработки выборки возьмем два числа
α и β:
и разделим интервал [α, β] на s
подинтервалов. Будем считать, что значения вариант,
попавших в каждый подинтервал,приближенно равны
числу, задающему середину подинтервала.
Подсчитав число вариант, попавших в каждый Квантилью порядка α (0 < α < 1) непрерывной
случайной величины ξ называется такое число xα,
для которого выполняется равенство
.
Квантиль x½ называется медианой случайной
величины ξ, квантили x¼ и x¾ – ее квартилями, a
x0,1, x0,2,..., x0,9 – децилями.
Для стандартного нормального распределения (a =
0, σ = 1) и, следовательно,
где FN (x, a, σ) – функция распределения нормально
распределенной случайной величины, а Φ(x) –
функция Лапласа.
Квантиль стандартного нормального распределения
xα для заданного α можно найти из соотношения

162. 6.2. Распределение Стьюдента

Если
– независимые
случайные величины, имеющие
нормальное распределение с нулевым
математическим ожиданием и
единичной дисперсией, то
распределение случайной величины
называют распределением Стьюдента
с n степенями свободы (W.S. Gosset).

Закон больших чисел

Практика изучения случайных явлений показывает, что хотя результаты отдельных наблюдений, даже проведенных в одинаковых условиях, могут сильно отличаться, в то же время средние результаты для достаточно большого числа наблюдений устойчивы и слабо зависят от результатов отдельных наблюдений. Теоретическим обоснованием этого замечательного свойства случайных явлений является закон больших чисел. Общий смысл закона больших чисел- совместное действие большого числа случайных факторов приводит к результату, почти не зависящему от случая.

Центральная предельная теорема

Теорема Ляпунова объясняет широкое распространение нормального закона распределения и поясняет механизм его образования. Теорема позволяет утверждать, что всегда, когда случайная величина образуется в результате сложения большого числа независимых случайных величин, дисперсии которых малы по сравнению с дисперсией суммы, закон распределения этой случайной величины оказывается практически нормальным законом. А поскольку случайные величины всегда порождаются бесконечным количеством причин и чаще всего ни одна из них не имеет дисперсии, сравнимой с дисперсией самой случайной величины, то большинство встречающихся в практике случайных величин подчинено нормальному закону распределения.

Остановимся подробнее на содержании теорем каждой из этих групп

В практических исследованиях очень важно знать, в каких случаях можно гарантировать, что вероятность события будет или достаточно мала, или как угодно близка к единице.

Под законом больших чисел и понимается совокупность предложений, в которых утверждается, что с вероятностью, как угодно близкой к единице (или нулю), произойдет событие, зависящее от очень большого, неограниченно увеличивающегося числа случайных событий, каждое из которых оказывает на него лишь незначительное влияние.

Точнее, под законом больших чисел понимается совокупность предложений, в которых утверждается, что с вероятностью, как угодно близкой к единице, отклонение средней арифметической достаточно большого числа случайных величин от постоянной величины -средней арифметической их математических ожиданий, не превзойдет заданного как угодно малого числа.

Отдельные, единичные явления, которые мы наблюдаем в природе и в общественной жизни, часто проявляются как случайные (например, регистрируемый смертный случай, пол родившегося ребенка, температура воздуха и др.) вследствие того, что на такие явления действует много факторов, не связанных с существом возникновения или развития явления. Предсказать суммарное действие их на наблюдаемое явление нельзя, и они различно проявляются в единичных явлениях. По результатам одного явления нельзя ничего сказать о закономерностях, присущих многим таким явлениям.

Однако давно было замечено, что средняя арифметическая числовых характеристик некоторых признаков (относительные частоты появления события, результатов измерений и т. д.) при большом числе повторений опыта подвержена очень незначительным колебаниям. В средней как бы проявляется закономерность, присущая существу явлений, в ней взаимно погашается влияние отдельных факторов, которые делали случайными результаты единичных наблюдений. Теоретически объяснить такое поведение средней можно с помощью закона больших чисел. Если будут выполнены некоторые весьма общие условия относительно случайных величин, то устойчивость средней арифметической будет практически достоверным событием. Эти условия и составляют наиболее важное содержание закона больших чисел.

Первым примером действия этого принципа и может служить сближение частоты наступления случайного события с его вероятностью при возрастании числа испытаний – факт, установленный в теореме Бернулли (швейцарский математик Якоб Бернулли (1654- 1705)).Теорема Бернулл является одной из простейших форм закона больших чисел и часто используется на практике. Например, частоту встречаемости какого-либо качества респондента в выборке принимают заоценку соответствующей вероятности).

Выдающийся французский математик Симеон Денни Пуассон (1781- 1840) обобщил эту теорему и распространил ее на случай, когда вероятность событий в испытании меняется независимо от результатов предшествующих испытаний. Он же впервые употребил термин «закон больших чисел».

Великий русский математик Пафнутий Львович Чебышев (1821 - 1894) доказал, что закон больших чисел действует в явлениях с любой вариацией и распростаняется также на закономерность средней.

Дальнейшее обобщение теорем закона больших чисел связано с именамиА.А.Маркова, С.Н.Бернштейна, А.Я.Хинчина и А.Н.Колмлгорова .

Общаясовременная постановка задачи, формулировка закона больших чисел, развитие идей и методов доказательства теорем, относящихся к этому закону, принадлежит русским ученым П. Л. Чебышеву, А. А. Маркову и А. М. Ляпунову .

НЕРАВЕНСТВО ЧЕБЫШЕВА

Рассмотрим сначала вспомогательные теоремы: лемму и неравенство Чебышева, с помощью которых легко доказывается закон больших чисел в форме Чебышева.

Лемма (Чебышев).

Если среди значений случайной величины Х нет отрицательных, то вероятность того, что она примет какое-нибудь значение, превосходящее положительное число А, не больше дроби, числитель которой - математическое ожидание случайной величины, а знаменатель -число А:

Доказательство. Пусть известен закон распределения случайной величины Х:

(i = 1, 2, ..., ), причем значения случайной величины мы считаем расположенными в возрастающем порядке.

По отношению к числу А значения случайной величины разбиваются на две группы: одни не превосходят А, а другие больше А. Предположим, что к первой группе относятся первые значений случайной величины ().

Так как , то все члены суммы неотрицательны. Поэтому, отбрасывая первые слагаемых в выражении получим неравенство:

Поскольку

,

то

что и требовалось доказать.

Случайные величины могут иметь различные распределения при одинаковых математических ожиданиях. Однако для них лемма Чебышева даст одинаковую оценку вероятности того или иного результата испытания. Этот недостаток леммы связан с ее общностью: добиться лучшей оценки сразу для всех случайных величин невозможно.

Неравенство Чебышева .

Вероятность того, что отклонение случайной величины от ее математического ожидания превзойдет по абсолютной величине положительное число , не больше дроби, числитель которой - дисперсия случайной величины, а знаменатель -квадрат

Доказательство. Поскольку случайная величина, которая не принимает отрицательных значений, то применим неравенство из леммы Чебышева для случайной величины при :


что и требовалось доказать.

Следствие. Поскольку

,

то

- другая форма неравенства Чебышева

Примем без доказательства факт, что лемма и неравенство Чебышева верны и для непрерывных случайных величин.

Неравенство Чебышева лежит в основе качественных и количественных утверждений закона больших чисел. Оно определяет верхнюю границу вероятности того, что отклонение значения случайной величины от ее математического ожидания больше некоторого заданного числа. Замечательно, что неравенство Чебышева дает оценку вероятности событиядля случайной величины, распределение которой неизвестно, известны лишь ее математическое ожидание и дисперсия.

Теорема. (Закон больших чисел в форме Чебышева)

Если дисперсии независимых случайных величин ограничены одной константой С, а число их достаточно велико, то как угодно близка к единице вероятность того, что отклонение средней арифметическойэтих случайных величин от средней арифметической их математических ожиданий не превзойдет по абсолютной величине данного положительного числа , каким бы малым оно ни было:

.

Теорему примем без доказательства.

Следствие 1. Если независимые случайные величины имеют одинаковые, равные , математические ожидания, дисперсии их ограничены одной и той же постоянной С, а число их достаточно велико, то, сколько бы мало на было данное положительное число , как угодно близка к единице вероятность того, что отклонение средней арифметической этих случайных величин от не превзойдет по абсолютной величине .

То, что за приближенное значение неизвестной величиныпринимают среднюю арифметическую результатов достаточно большого числа ее измерений, произведенных в одних и тех же условиях, можно обосновать этой теоремой. Действительно, результаты измерений являются случайными, так как на них действует очень много случайных факторов. Отсутствие систематических ошибокозначает, что математические ожидания отдельных результатов измерений одинаковые и равны . Следовательно, по закону больших чисел средняя арифметическая достаточно большого числа измерений практически будет как угодно мало отличаться от истинного значения искомой величины.

(Напомним, что ошибки называются систематическими, если они искажают результат измерения в одну и ту же сторону по более или менее ясному закону. К ним относятся ошибки, появляющиеся в результате несовершенства инструментов (инструментальные ошибки), вследствие личных особенностей наблюдателя (личные ошибки) и др.)

Следствие 2 . (Теорема Бернулли.)

Если вероятность наступления события А в каждом из независимых испытаний постоянна, а их число достаточно велико, то сколь угодно близка к единице вероятность того, что частота появления события как угодно мало отличается отвероятности его появления:

Теорема Бернулли, утверждает, что если вероятность события одинакова во всех испытаниях, то с увеличением числа испытаний частота события стремится к вероятности события и перестает быть случайной.

На практике сравнительно редко встречаются опыты, в которых вероятность появления события в любом опыте неизменна, чаще онаразная в разных опытах. К схеме испытаний такого типа относится теорема Пуассона:

Следствие 3 . (Теорема Пуассона.)

Если вероятность появления события в -омиспытании не меняется, когда становятся известными результаты предыдущих испытаний, а их число достаточно велико, то сколь угодно близка к единице вероятность того, что частота появления события как угодно мало отличается отсредней арифметической вероятностей :

Теорема Пуассона утверждает, что частота события в серии независимых испытаний стремится к среднему арифметическому его вероятностей и перестает быть случайной.

В заключение заметим, что ни одна из рассмотренных теорем не дает ни точного, ни даже приближенного значения искомой вероятности, а указывается лишь нижняя или верхняя граница ее. Поэтому, если требуется установить точное или хотя бы приближенное значение вероятностей соответствующих событий, возможности этих теорем весьма ограничены.

Приближенные значения вероятностей при больших значениях можно получить только с помощью предельных теорем. В них или на случайные величины налагаются дополнительные ограничения (как это имеет место, например, в теореме Ляпунова), или рассматриваются случайные величины определенного вида (например, в интегральной теореме Муавра-Лапласа).

Теоретическое значение теоремы Чебышева, являющейся весьма общей формулировкой закона больших чисел, велико. Однако если мы будем применять ее при решении вопроса о возможности применить закон больших чисел к последовательности независимых случайных величин, то при утвердительном ответе теорема часто будет требовать, чтобы случайных величин было гораздо больше, чем необходимо для вступления в силу закона больших чисел. Указанный недостаток теоремы Чебышева объясняется общим характером ее. Поэтому желательно иметь теоремы, которые точнее указывали бы нижнюю (или верхнюю) границу искомой вероятности. Их можно получить, если наложить на случайные величины некоторые дополнительные ограничения, которые для встречающихся на практике случайных величин обычно выполняются.

ЗАМЕЧАНИЯ О СОДЕРЖАНИИ ЗАКОНА БОЛЬШИХ ЧИСЕЛ

Если число случайных величин достаточно велико и они удовлетворяют некоторым весьма общим условиям, то, как бы они ни были распределены, практически достоверно, что средняя арифметическая их сколь угодно мало отклоняете а от постоянной величины - - средней арифметической их математических ожиданий, т. е. является практически постоянной величиной. Таково содержание теорем, относящихся к закону больших чисел. Следовательно, закон больших чисел - одно из выражений диалектической связи между случайностью и необходимостью.

Можно привести очень много примеров возникновения новых качественных состояний как проявления закона больших чисел, в первую очередь среди физических явлений. Рассмотрим один из них.

По современным представлениям газы состоят из отдельных частиц- молекул, которые находятся в хаотическом движении, и нельзя точно сказать, где в данный момент будет находиться, и с какой скоростью будет двигаться та или иная молекула. Однако наблюдения показывают, что суммарное действие молекул, например давление газа на

стенку сосуда, проявляется с поразительным постоянством. Оно определяется числом ударов и силой каждого из них. Хотя первое и второе является делом случая, приборы не улавливают колебаний давления газа, находящегося в нормальных условиях. Объясняется это тем, что благодаря огромному числу молекул даже в самых небольших объемах

изменение давления на заметную величину практически невозможно. Следовательно, физический закон, утверждающий постоянство давления газа, является проявлением закона больших чисел.

Постоянство давления и некоторых других характеристик газа в свое время служило веским аргументом против молекулярной теории строения вещества. Впоследствии научились изолировать сравнительно небольшое число молекул, добиваясь того, чтобы влияние от дельных молекул еще оставалось, и тем самым закон больших чисел не мог проявиться в достаточной степени. Тогда удалось наблюдать колебания давления газа, подтверждающие гипотезу о молекулярном строении вещества.

Закон больших чисел лежит в основе различных видов страхования (страхование жизни человека на всевозможные сроки, имущества, скота, посевов и др.).

При планировании ассортимента товаров широкого потребления учитывается спрос на них населения. В этом спросе проявляется действие закона больших чисел.

Широко применяемый в статистике выборочный метод находит свое научное обоснование в законе больших чисел. Например, о качестве привезенной из колхоза на заготовительный пункт пшеницы судят по качеству зерен, случайно захваченных в небольшую мерку. Зерна в мерке немного по сравнению со всей партией, но во всяком случае мерку выбирают такой, чтобы зерен в ней было вполне достаточно для

проявления закона больших чисел с точностью, удовлетворяющей потребности. Мы вправе принять за показатели засоренности, влажности и среднего веса зерен всей партии поступившего зерна соответствующие показатели в выборке.

Дальнейшиеусилия ученых по углублению содержания закона больших чисел былинаправлены па получен наиболее общих условий применимостиэтого закона к последовательности случайных величин. В этом направлении долго не было принципиальных успехов. После П. Л. Чебышева и А. А. Маркова только в 1926 г. советскому академику А. Н. Колмогорову удалось получить условия, необходимые и достаточные для того, чтобы к последовательности независимых случайных величин был применим закон больших чисел. В 1928 г. советский ученый А. Я. Хинчин показал, что достаточным условием применимости закона больших чисел к последовательности независимых одинаково распределенных случайных величин является существование у них математического ожидания.

Для практики исключительно важно полностью выяснить вопрос о применимости закона больших чисел к зависимым случайным величинам, так как явления в природе и обществе находятся во взаимной зависимости и взаимно обусловливают друг друга. Много работ посвящено выяснению ограничений, которые необходимо наложить

на зависимые случайные величины, чтобы к ним можно было применить закон больших чисел, причем наиболее важные принадлежат выдающемуся русскому ученому А. А. Маркову и крупным советским ученым С. Н. Бернштейну и А. Я. Хинчину.

Основной результат этих работ состоит в том, что закон больших чисел приложим к зависимым случайным величинам, если только сильная зависимость существует между случайными величинами с близкими номерами, а между случайными величинами с далекими номерами зависимость достаточно слаба. Примерами случайных величин такого типа являются числовые характеристики климата. На погоду каждого дня заметно влияет погода предыдущих дней, причем влияние заметно ослабевает с удалением дней друг от друга. Следовательно, многолетняя средняя температура, давление и другие характеристики климата данной местности в соответствии с законом больших чисел практически должны быть близки к своим математическим ожиданиям. Последние являются объективными характеристиками климата местности.

В целях экспериментальной проверки закона больших чисел в разное время были произведены следующие опыты.

1. Опыт Бюффона . Монета брошена 4040 раз. Герб выпал 2048 раз. Частость его выпадения оказалась равной 0,50694 =

2. Опыт Пирсона . Монета брошена 12 000 и 24 000 раз. Частость выпадения герба в первом случае оказалась равной 0,5016, в Втором - 0,5005.

З. Опыт Вестергаарда . Из урны, в которой было поровну белых и черных шаров, получено при 10 000 извлечений (с возвратом очередного вынутого шара в урну) 5011 белых и 4989 черных шаров. Частость белых шаров составила 0,50110 = (), а черных - 0,49890.

4. Опыт В. И. Романовского . Четыре монеты брошены 21160 раз. Частоты и частости различных комбинаций выпадения герба и решетки распределились следующим образом:

Комбинации числа выпадений герба и решки

Частоты

Частости

Эмпирические

Теоретические

4 и 0

1 181

0,05858

0,0625

3 и 1

4909

0,24350

0,2500

2 и 2

7583

0,37614

0,3750

1 и 3

5085

0,25224

0,2500

1 и 4

0,06954

0,0625

Итого

20160

1,0000

1,0000

Результаты экспериментальных проверок закона больших чисел убеждают нас в большой близости опытных частостей вероятностям.

ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА

Нетрудно доказать, что сумма любого конечного числа независимых нормально распределенных случайных величин также распределена по нормальному закону.

Если независимые случайные величины не распределены по нормальному закону, то можно наложить на них некоторые весьма нежесткие ограничения, и их сумма будет все-таки распределена нормально.

Эту задачу поставили и решили в основном русские ученые П. Л. Чебышев и его ученики А. А. Марков и А. М. Ляпунов.

Теорема (Ляпунов).

Если независимые случайные величины имеютконечные математические ожидания и конечные дисперсии , число их достаточно велико, а при неограниченном возрастании

,

где - абсолютные центральные моменты третьего порядка, то сумма их с достаточной степенью точности имеет распределение

(Фактически мы приводим не теорему Ляпунова, а одно из следствий из нее, так как этого следствия вполне достаточно для практических приложений. Поэтому условие , которое названо условием Ляпунова, является более сильным требованием, чем необходимо для доказательства собственно теоремы Ляпунова.)

Смысл условия состоит в том, что действие каждого слагаемого (случайной величины) невелико по сравнению с суммарным действием их всех. Многие случайные явления, встречающиеся в природе и в общественной жизни, протекают именно по такой схеме. В связи с этим теорема Ляпунова имеет исключительно большое значение, а нормальный закон распределения является одним из основныхзаконов в теории вероятностей.

Пусть, например, производится измерение некоторой величины . Различные уклонения наблюдаемых значений от истинного ее значения (математического ожидания)получаются в результате воздействия очень большого числа факторов, каждый из которых порождает малую ошибку , причем . Тогда суммарная ошибка измерения является случайной величиной, которая по теореме Ляпунова должна быть распределена по нормальному закону.

При стрельбе из орудия под влиянием очень большого числа причин случайного характера происходит рассеяние снарядов на некоторой площади. Случайные воздействия на траекторию снаряда можно считать независимыми. Каждая причина вызывает лишь незначительное изменение траектории по сравнению с суммарным изменением под воздействием всех причин. Поэтому следует ожидать, что отклонение места разрыва снаряда от цели будет случайной величиной, распределенной по нормальному закону.

По теореме Ляпунова мы вправе ожидать, что, например, рост взрослого мужчины является случайной величиной, распределенной по нормальному закону. Эта гипотеза, как и рассмотренные в предыдущих двух примерах, хорошо согласуется с наблюдениями.В подтверждение приведем распределение по росту 1000 взрослых рабочихмужчини соответствующие теоретические численности мужчин, т. е. число мужчин, которые должны иметь рост указанных групп, если исходить из предположения о распределении роста мужчин по нормальному закону.

Рост, см

количество мужчин

экспериментальные данные

теоретические

прогнозы

143-146

146-149

149-152

152-155

155-158

158- 161

161- 164

164-167

167-170

170-173

173-176

176-179

179 -182

182-185

185-188

Более точного совпаденияэкспериментальных данных с теоретическими трудно было ожидать.

Можно легко доказать как следствие теоремы Ляпунова -предложение, которое будет необходимо в дальнейшем для обоснования выборочного метода.

Предложение.

Сумма достаточно большого числа одинаково распределенных случайных величин имеющих абсолютные центральные моменты третьего порядка, распределена по нормальному закону.

Предельные теоремы теории вероятностей, теоремы Муавра-Лапласа объясняют природу устойчивости частоты появлений события. Природа эта состоит в том, что предельным распределением числа появлений события при неограниченном возрастании числа испытаний (если вероятность события во всех испытаниях одинакова) является нормальное распределение.

Система случайных величин.

Рассмотренные выше случайные величины были одномерными, т.е. определялись одним числом, однако, существуют также случайные величины, которые определяются двумя, тремя и т.д. числами. Такие случайные величины называются двумерными, трехмерными и т.д.

В зависимости от типа, входящих в систему случайных величин, системы могут быть дискретными, непрерывными или смешанными, если в систему входят различные типы случайных величин.

Более подробно рассмотрим системы двух случайных величин.

Определение. Законом распределения системы случайных величин называется соотношение, устанавливающее связь между областями возможных значений системы случайных величин и вероятностями появления системы в этих областях.

Пример. Из урны, в которой находятся 2 белых и три черных шара вынимают два шара. Пусть - число вынутых белых шаров, а случайная величина определяется следующим образом:


Составим таблицу распределения системы случайных величин :

Поскольку - вероятность того, что белых шаров не вынуто (значит, вынуто два черных шара), при этом , то

.

Вероятность

.

Вероятность

Вероятность - вероятность того, что белых шаров не вынуто(и, значит, вынуто два черных шара), при этом , тогда

Вероятность - вероятность того, что вынут один белый шар (и, значит, один черный), при этом , тогда

Вероятность - вероятность того, что вынуто два белых шара (и, значит, ни одного черного), при этом , тогда

.

Таким образом, ряд распределения двумерной случайной величины имеет вид:

Определение. Функцией распределения системы двух случайных величин называется функция двух аргументов F ( x , y ) , равная вероятности совместного выполнения двух неравенств X < x , Y < y .


Отметим следующие свойства функции распределения системы двух случайных величин:

1) ;

2) Функция распределения является неубывающей функцией по каждому аргументу:

3) Верно следующее:

4)


5) Вероятность попадания случайной точки (X , Y ) в произвольный прямоугольник со сторонами, параллельными координатным осям, вычисляется по формуле:


Плотность распределения системы двух случайных величин.

Определение. Плотностью совместного распределения вероятностей двумерной случайной величины (X , Y ) называется вторая смешанная частная производная от функции распределения.

Если известна плотность распределения, то функция распределения может быть найдена по формуле:

Двумерная плотность распределения неотрицательна и двойной интеграл с бесконечными пределами от двумерной плотности равен единице.

По известной плотности совместного распределения можно найти плотности распределения каждой из составляющих двумерной случайной величины.

; ;

Условные законы распределения.

Как было показано выше, зная совместный закон распределения можно легко найти законы распределения каждой случайной величины, входящей в систему.

Однако, на практике чаще стоит обратная задача – по известным законам распределения случайных величин найти их совместный закон распределения.

В общем случае эта задача является неразрешимой, т.к. закон распределения случайной величины ничего не говорит о связи этой величины с другими случайными величинами.

Кроме того, если случайные величины зависимы между собой, то закон распределения не может быть выражен через законы распределения составляющих, т.к. должен устанавливать связь между составляющими.

Все это приводит к необходимости рассмотрения условных законов распределения.

Определение. Распределение одной случайной величины, входящей в систему, найденное при условии, что другая случайная величина приняла определенное значение, называется условным законом распределения .

Условный закон распределения можно задавать как функцией распределения так и плотностью распределения.

Условная плотность распределения вычисляется по формулам:

Условная плотность распределения обладает всеми свойствами плотности распределения одной случайной величины.

Условное математическое ожидание.

Определение. Условным математическим ожиданием дискретной случайной величины Y при X = x (х – определенное возможное значение Х) называется произведение всех возможных значений Y на их условные вероятности.

Для непрерывных случайных величин:

,

где f ( y / x ) – условная плотность случайной величины Y при X = x .

Условное математическое ожидание M ( Y / x )= f ( x ) является функцией от х и называется функцией регрессии Х на Y .

Пример. Найти условное математическое ожидание составляющей Y при

X = x 1 =1 для дискретной двумерной случайной величины, заданной таблицей:

Y

x 1 =1

x 2 =3

x 3 =4

x 4 =8

y 1 =3

0,15

0,06

0,25

0,04

y 2 =6

0,30

0,10

0,03

0,07

Аналогично определяются условная дисперсия и условные моменты системы случайных величин.

Зависимые и независимые случайные величины.

Определение. Случайные величины называются независимыми , если закон распределения одной из них не зависит от того какое значение принимает другая случайная величина.

Понятие зависимости случайных величин является очень важным в теории вероятностей.

Условные распределения независимых случайных величин равны их безусловным распределениям.

Определим необходимые и достаточные условия независимости случайных величин.

Теорема. Y были независимы, необходимо и достаточно, чтобы функция распределения системы ( X , Y ) была равна произведению функций распределения составляющих.

Аналогичную теорему можно сформулировать и для плотности распределения:

Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы плотность совместногораспределения системы ( X , Y ) была равна произведению плотностей распределения составляющих.

Практически используются формулы:

Для дискретных случайных величин:

Для непрерывных случайных величин:

Корреляционный момент служит для того, чтобы охарактеризовать связь между случайными величинами. Если случайные величины независимы, то их корреляционный момент равен нулю.

Корреляционный момент имеет размерность, равную произведению размерностей случайных величин Х и Y . Этот факт является недостатком этой числовой характеристики, т.к. при различных единицах измерения получаются различные корреляционные моменты, что затрудняет сравнение корреляционных моментов различных случайных величин.

Для того, чтобы устранить этот недостаток применятся другая характеристика – коэффициент корреляции.

Определение. Коэффициентом корреляции r xy случайных величин Х и Y называется отношение корреляционного момента к произведению средних квадратических отклонений этих величин.

Коэффициент корреляции является безразмерной величиной. Для независимых случайных величин коэффициент корреляции равен нулю.

Свойство: Абсолютная величина корреляционного момента двух случайных величин Х и Y не превышает среднего геометрического их дисперсий.

Свойство: Абсолютная величина коэффициента корреляции не превышает единицы.

Случайные величины называются коррелированными , если их корреляционный момент отличен от нуля, и некоррелированными , если их корреляционный момент равен нулю.

Если случайные величины независимы, то они и некоррелированы, но из некоррелированности нельзя сделать вывод о их независимости.

Если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными.

Часто по заданной плотности распределения системы случайных величин можно определить зависимость или независимость этих величин.

Наряду с коэффициентом корреляции степень зависимости случайных величин можно охарактеризовать и другой величиной, которая называется коэффициентом ковариации . Коэффициент ковариации определяется формулой :

Пример. Задана плотность распределения системы случайных величин Х и независимы. Разумеется, они также будут и некоррелированы.

Линейная регрессия.

Рассмотрим двумерную случайную величину (X , Y ), где X и Y – зависимые случайные величины.

Представим приближенно одну случайную величину как функцию другой. Точное соответствие невозможно. Будем считать, что эта функция линейная.

Для определения этой функции остается только найти постоянные величины a и b .

Определение. Функция g ( X ) называется наилучшим приближением случайной величины Y в смысле метода наименьших квадратов , если математическое ожидание

Принимает наименьшее возможное значение. Также функция g ( x ) называется среднеквадратической регрессией Y на X .

Теорема. Линейная средняя квадратическая регрессия Y на Х вычисляется по формуле:

в этой формуле m x = M ( X случайной величины Y относительно случайной величины Х. Эта величина характеризует величину ошибки, образующейся при замене случайной величины Y линейной функцией g ( X ) = a Х + b .

Видно, что если r = ± 1, то остаточная дисперсия равна нулю, и, следовательно, ошибка равна нулю и случайная величина Y точно представляется линейной функцией от случайной величины Х.

Прямая среднеквадратичной регрессии Х на Y определяется аналогично по формуле: Х и Y имеют в отношении друг друга линейные функции регрессии, то говорят, что величины Х и Y связаны линейной корреляционной зависимостью .

Теорема. Если двумерная случайная величина ( X , Y ) распределена нормально, то Х и Y связаны линейной корреляционной зависимостью.

Е.Г. Hикифорова


Поделитесь с друзьями или сохраните для себя:

Загрузка...