¿Dónde se aplica la ley de los grandes números? Leyes de grandes números

Función de distribución de una variable aleatoria y sus propiedades.

Función de distribución La variable aleatoria X es una función F(X), que expresa para cada x la probabilidad de que la variable aleatoria X tome un valor menor que x: F(x)=P(X)

Función F(x) aveces llamado función integral distribución o Ley integral de distribución.

Propiedades de la función de distribución:

1. La función de distribución de una variable aleatoria es una función no negativa entre cero y uno:

0 ≤ F(x) ≤ 1.

2. La función de distribución de una variable aleatoria es una función no decreciente en todo el eje numérico.

3. En menos infinito la función de distribución es igual a cero, en más infinito es igual a la unidad, es decir: F(-∞)= , F(+∞)= .

4. La probabilidad de que una variable aleatoria caiga en el intervalo [x1,x2) (incluido x1) es igual al incremento de su función de distribución en este intervalo, es decir P(x 1 ≤ X< х 2) = F(x 2) - F(x 1).


Desigualdad de Markov y Chebyshev

La desigualdad de Markov

Teorema: Si una variable aleatoria X toma solo valores no negativos y tiene una expectativa matemática, entonces para cualquier número positivo A se cumple la siguiente igualdad: P(x>A) ≤ .

Como los eventos X > A y X ≤ A son opuestos, entonces reemplazando P(X > A) expresamos 1 - P(X ≤ A), llegamos a otra forma de desigualdad de Markov: P(X ≥ A) ≥1 - .

La desigualdad de Markov k se aplica a cualquier variable aleatoria no negativa.

La desigualdad de Chebyshev

Teorema: Para cualquier variable aleatoria que tenga expectativa y varianza matemática, la desigualdad de Chebyshev es válida:

P (|X – a| > ε) ≤ D(X)/ε 2 o P (|X – a| ≤ ε) ≥ 1 – DX/ε 2, donde a= M(X), ε>0.


La ley de los grandes números “en la forma” del teorema de Chebyshev.

Teorema de Chebyshev: Si la variación norte variables aleatorias independientes X1, X2,…. X norte están limitados a la misma constante, entonces con un aumento ilimitado en el número norte la media aritmética de variables aleatorias converge en probabilidad a la media aritmética de sus expectativas matemáticas a 1 , a 2 ...., a norte, es decir .

El significado de la ley de los grandes números es que los valores promedio de las variables aleatorias tienden a su expectativa matemática cuando norte→ ∞ en probabilidad. La desviación de los valores promedio de la expectativa matemática se vuelve arbitrariamente pequeña con una probabilidad cercana a la unidad si n es lo suficientemente grande. En otras palabras, la probabilidad de cualquier desviación de los valores promedio de A tan pequeño como creces norte.



30. Teorema de Bernoulli.

Teorema de Bernoulli: Frecuencia de eventos en norte ensayos independientes repetidos, en cada uno de los cuales puede ocurrir con la misma probabilidad p, con un aumento ilimitado en el número norte convergen en probabilidad a la probabilidad p de este evento en un ensayo separado: \

El teorema de Bernoulli es una consecuencia del teorema de Chebyshev, porque la frecuencia de un evento se puede representar como la media aritmética de n variables aleatorias alternativas independientes que tienen la misma ley de distribución.

18. Expectativa matemática de variables aleatorias discretas y continuas y sus propiedades..

Expectativa matemática es la suma de los productos de todos sus valores y sus correspondientes probabilidades

Para una variable aleatoria discreta:

Para una variable aleatoria continua:

Propiedades de la expectativa matemática:

1. La expectativa matemática de un valor constante es igual a la constante misma: M(S)=C

2. El factor constante se puede sacar del signo de la expectativa matemática, es decir M(kX)=kM(X).

3. La expectativa matemática de una suma algebraica de un número finito de variables aleatorias es igual a la misma suma de sus expectativas matemáticas, es decir M(X±Y)=M(X)±M(Y).

4. La expectativa matemática del producto de un número finito de variables aleatorias independientes es igual al producto de sus expectativas matemáticas: M(XY)=M(X)*M(Y).

5. Si todos los valores de una variable aleatoria aumentan (disminuyen) en una constante C, entonces la expectativa matemática de esta variable aleatoria aumentará (disminuirá) en la misma constante C: M(X±C)=M(X)±C.

6. La expectativa matemática de la desviación de una variable aleatoria de su expectativa matemática es cero: M=0.

LEY DE LOS GRANDES NÚMEROS

un principio general, en virtud del cual la combinación de factores aleatorios conduce, bajo ciertas condiciones muy generales, a un resultado que es casi independiente del azar. La convergencia de la frecuencia de ocurrencia de un evento aleatorio con su probabilidad a medida que aumenta el número de intentos (observada por primera vez, aparentemente, en el juego) puede servir como el primer ejemplo del funcionamiento de este principio.

A finales de los siglos XVII y XVIII. J. Bernoulli demostró un teorema que establece que en una secuencia de ensayos independientes, en cada uno de los cuales la ocurrencia de un determinado evento tiene el mismo valor, se cumple la siguiente relación:

para cualquiera - el número de ocurrencias del evento en las primeras pruebas, - la frecuencia de ocurrencias. Este teorema de bernoulli S. Poisson lo amplió al caso de una secuencia de ensayos independientes, donde la probabilidad de que ocurra el evento A puede depender del número de ensayos. Sea esta probabilidad para el k-ésimo ensayo igual y sea


Entonces teorema de poisson Establece que

para cualquier La primera aproximación rigurosa a este teorema la dio P. L. Chebyshev (1846), cuyo método es completamente diferente al de Poisson y se basa en ciertas consideraciones extremas; S. Poisson dedujo (2) a partir de una fórmula aproximada para la probabilidad indicada, basada en el uso de la ley de Gauss y que en ese momento aún no estaba estrictamente fundamentada. S. Poisson encontró por primera vez el término "ley de los grandes números", al que llamó su generalización del teorema de Bernoulli.

Una generalización adicional natural de los teoremas de Bernoulli y Poisson surge si observamos que las variables aleatorias se pueden representar como una suma

variables aleatorias independientes, donde si A aparece en el ensayo Ath, y - de lo contrario. Al mismo tiempo, las matemáticas la expectativa (que coincide con la media aritmética de las expectativas matemáticas) es igual a p para el caso de Bernoulli y para el caso de Poisson. Es decir, en ambos casos se considera la desviación de la media aritmética. X k de la media aritmética de sus matemáticas Expectativas.

En el trabajo de P. L. Chebyshev “Sobre valores promedio” (1867) se estableció que para variables aleatorias independientes la relación

(para cualquiera) es cierto bajo supuestos muy generales. P. L. Chebyshev asumió que el matemático. Todas las expectativas están limitadas por la misma constante, aunque de su prueba queda claro que el requisito de varianzas acotadas es suficiente.

o incluso demandas

Así, P. L. Chebyshev mostró la posibilidad de una amplia generalización del teorema de Bernoulli. A. A. Markov señaló la posibilidad de mayores generalizaciones y sugirió utilizar el nombre B. h.z. al conjunto completo de generalizaciones del teorema de Bernoulli [y en particular a (3)]. El método de Chebyshev se basa en el establecimiento preciso de las propiedades generales de las matemáticas. expectativas y sobre el uso de los llamados. Desigualdades de Chebyshev[para la probabilidad (3) da una estimación de la forma


este límite puede ser reemplazado por uno más preciso, por supuesto, bajo restricciones más significativas, ver Desigualdad de Bernstein]. Evidencias posteriores de diversas formas de B. h.z. en un grado u otro son un desarrollo del método Chebyshev. Aplicando la "poda" adecuada de variables aleatorias (reemplazándolas con variables auxiliares, a saber: , si dónde están ciertas constantes), A. A. Markov amplió la parte B. para los casos en los que no existan variaciones de los términos. Por ejemplo, demostró que (3) tiene lugar si, para ciertas constantes y todos y

CONFERENCIA 5

Repetición de lo cubierto

Parte 1 - CAPITULO 9. LEY DE LOS GRANDES NÚMEROS. TEOREMAS DE LÍMITE

Cuando se determina estadísticamente
probabilidad de que se interprete como alguna
el número al que tiende el relativo
frecuencia de un evento aleatorio. En
definición axiomática de probabilidad –
esta es, de hecho, una medida aditiva del conjunto
resultados que favorecen el azar
evento. En el primer caso nos encontramos ante
límite empírico, en el segundo – con
concepto teórico de medida. Absolutamente no
obviamente se refieren a lo mismo
concepto. Relación entre diferentes definiciones
la probabilidad está establecida por el teorema de Bernoulli,
que es un caso especial de la ley de las grandes
números.

Con un número cada vez mayor de pruebas
la ley del binomio tiende a
distribución normal. este es el teorema
Moivre-Laplace, que es
un caso especial del límite central
teoremas Este último afirma que la función
distribución de la suma de independientes
variables aleatorias a medida que aumenta el número
Los términos tienden a ser normales.
ley.
Ley de grandes números y central.
El teorema del límite se encuentra en la base.
estadística matemática.

9.1. La desigualdad de Chebyshev

Sea la variable aleatoria ξ tener
expectativa matemática finita
M[ξ] y varianza D[ξ]. Entonces para
cualquier número positivo ε
la siguiente desigualdad es cierta:

Notas

Para el evento contrario:
La desigualdad de Chebyshev es válida para
cualquier ley de distribución.
Poniendo
hecho:
, nos volvemos no triviales

9.2. Ley de los grandes números en forma de Chebyshev

Teorema Dejemos que las variables aleatorias
son independientes por pares y tienen finitos
variaciones limitadas al mismo
constante
Entonces para
cualquier
tenemos
Por tanto, la ley de los grandes números dice
convergencia en probabilidad de la media aritmética de variables aleatorias (es decir, variable aleatoria)
a la media aritmética de su tapete. expectativas (es decir,
a una variable no aleatoria).

9.2. Ley de los grandes números en forma de Chebyshev: suma

Teorema (Markov): ley de los grandes
los números se satisfacen si la varianza
la suma de variables aleatorias no crece
demasiado rápido a medida que n crece:

10. 9.3. teorema de bernoulli

Teorema: Considere el esquema de Bernoulli.
Sea μn el número de ocurrencias del evento A en
n ensayos independientes, p – probabilidad de ocurrencia del evento A en uno
prueba. Entonces para cualquiera
Aquellos. la probabilidad de que la desviación
frecuencia relativa de un evento aleatorio de
su probabilidad p será arbitrariamente módulo
es pequeño, tiende a la unidad a medida que aumenta el número
pruebas

11.

Prueba: variable aleatoria μn
distribuido según la ley del binomio, por lo tanto
tenemos

12. 9.4. Funciones características

Función característica del azar.
la cantidad se llama función
donde exp(x) = ej.
De este modo,
representa
expectativa matemática de algunos
variable aleatoria compleja
asociado con el tamaño. En particular, si
- variable aleatoria discreta,
dado por la serie de distribución (xi, pi), donde i
= 1, 2,..., n, entonces

13.

Para una variable aleatoria continua
con densidad de distribución
probabilidades

14.

15. 9.5. Teorema del límite central (teorema de Lyapunov)

16.

Repitió lo que habíamos cubierto

17. FUNDAMENTOS DE LA TEORÍA DE LA PROBABILIDAD Y ESTADÍSTICA MATEMÁTICA

PARTE II. MATEMÁTICO
ESTADÍSTICAS

18. Epígrafe

“Hay tres tipos de mentiras: mentiras,
mentiras descaradas y estadísticas"
Benjamín Disraeli

19. Introducción

Dos problemas principales de matemática.
Estadísticas:
recopilación y agrupación de estadísticas
datos;
desarrollo de métodos de análisis
datos recibidos dependiendo de
motivo de investigación.

20. Métodos de análisis de datos estadísticos:

evaluación de la probabilidad desconocida de un evento;
estimación de función desconocida
distribución;
estimación de parámetros de conocimiento
distribución;
probar hipótesis estadísticas sobre una especie
distribución desconocida o
valores de los parámetros de lo conocido.
distribuciones.

21. CAPÍTULO 1. CONCEPTOS BÁSICOS DE ESTADÍSTICA MATEMÁTICA

22. 1.1. Población y muestra

Población general - todo
muchos objetos en estudio,
Muestreo: un conjunto de objetos, al azar.
seleccionados de la población general
para investigación.
Tamaño de la población y
tamaño de la muestra (el número de objetos en la población general y en la muestra)
denotado como N y n respectivamente.

23.

La muestra se repite cuando
cada objeto seleccionado antes
eligiendo el siguiente vuelve a
la población en general, y
repetible si se selecciona
objeto en la población general no es
devoluciones.

24. Muestra representativa:

representa las características correctamente
la población general, es decir es
representante (representante).
Según la ley de los grandes números, se puede afirmar que
que esta condición se cumple si:
1) el tamaño de la muestra n es lo suficientemente grande;
2) cada objeto de la muestra fue seleccionado al azar;
3) para cada objeto la probabilidad de obtener
en la muestra es el mismo.

25.

Población y muestra
puede ser unidimensional
(un factor)
y multidimensional (multifactorial)

26. 1.2. Ley de distribución muestral (series estadísticas)

Sea una muestra de tamaño n
la variable aleatoria que nos interesa es ξ
(cualquier parámetro de objeto
población) toma n1
multiplicado por el valor de x1, n2 multiplicado por el valor de x2,... y
nk veces – valor xk. Entonces observables
valores x1, x2,..., xk de una variable aleatoria
ξ se llaman variantes, y n1, n2,..., nk
– sus frecuencias.

27.

La diferencia xmax – xmin es el rango
muestras, relación ωi = ni /n –
Opciones de frecuencia relativa xi.
Es obvio que

28.

Si anotamos las opciones en orden ascendente obtenemos una serie de variaciones. Una tabla compuesta por estos
variantes ordenadas y sus frecuencias
(y/o frecuencias relativas)
se llama serie estadística o
ley de distribución de muestras.
-- Un análogo de la ley de distribución discreta.
variable aleatoria en la teoría de la probabilidad

29.

Si la serie de variación consta de muy
una gran cantidad de números o
algo continuo
firmar, usar agrupado
muestra. Para obtenerlo, el intervalo es
que contiene todos los observables
los valores característicos se dividen en
varias partes generalmente iguales
(subintervalos) de longitud h. En
recopilación de series estadísticas en
Como xi, generalmente se elige el medio
subintervalos, y ni es igual al número
opción que cae en el i-ésimo subintervalo.

30.

40
- Frecuencias -
35
30
n2
n3
ns
n1
25
20
15
10
5
0
a
a+h/2 a+3h/2
- Opciones -
b-h/2
b

31. 1.3. Polígono de frecuencia, función de distribución de muestra.

Tracemos los valores de la variable aleatoria xi por
el eje de abscisas, y los valores ni a lo largo del eje de ordenadas.
Una línea discontinua cuyos segmentos están conectados.
puntos con coordenadas (x1, n1), (x2, n2),..., (xk,
nk), se llama polígono
frecuencia si en cambio
valores absolutos ni
poner en el eje de ordenadas
frecuencias relativas ωi,
entonces obtenemos un polígono de frecuencias relativas

32.

Por analogía con la función de distribución.
variable aleatoria discreta por
La ley de distribución de muestras puede ser
construir una muestra (empírica)
función de distribución
donde la suma se realiza sobre todos
frecuencias a las que corresponden los valores
opción, x más pequeña. Darse cuenta de
función de distribución empírica
depende del tamaño de la muestra n.

33.

A diferencia de la función
,encontró
para una variable aleatoria ξ por un experimentado
mediante el procesamiento de datos estadísticos, la verdadera función
distribución
relacionado con
la poblacion general se llama
teórico. (Generalmente generales
la totalidad es tan grande que
es imposible procesarlo todo, es decir
solo puedes explorarlo
En teoria).

34.

Darse cuenta de:

35. 1.4. Propiedades de la función de distribución empírica.

Pisó
vista

36.

Otra representación gráfica
la muestra que nos interesa es
histograma - figura de paso,
formado por rectángulos cuyas bases son subintervalos
ancho h, y las alturas son segmentos de longitud
ni/h (histograma de frecuencia) o ωi/h
(histograma de frecuencias relativas).
En el primer caso
el área del histograma es igual al volumen
muestras n, en
segundo

37. Ejemplo

38. CAPÍTULO 2. CARACTERÍSTICAS NUMÉRICAS DE LA MUESTRA

39.

El problema de la estadística matemática es
obtener de la muestra disponible
información sobre generales
totalidad. Características numéricas de una muestra representativa: evaluación de las características correspondientes.
variable aleatoria en estudio,
relacionado con lo general
como un todo.

40. 2.1. Media muestral y varianza muestral, puntos empíricos

La media muestral se llama
media aritmética de valores
opción en la muestra
La media muestral se utiliza para
evaluación estadística de matemáticas
expectativas de la variable aleatoria bajo estudio.

41.

La varianza muestral se llama
valor igual a
Cuadrado medio muestral
desviación -

42.

Es fácil mostrar lo que se está ejecutando.
la siguiente relación es conveniente para
cálculos de varianza:

43.

Otras características
series de variación son:
modo M0 – variante que tiene
la frecuencia más alta y la mediana yo –
opción que divide la variacional
fila en dos partes iguales al número
opción.
2, 5, 2, 11, 5, 6, 3, 13, 5 (modo = 5)
2, 2, 3, 5, 5, 5, 6, 11,13 (mediana = 5)

44.

Por analogía con el correspondiente
Las expresiones teóricas pueden ser
construir puntos empíricos,
utilizado para estadística
evaluaciones de primaria y central
momentos del azar estudiado
cantidades.

45.

Por analogía con momentos.
teorías
probabilidades empíricas iniciales
momento del pedido m es la cantidad
punto empírico central
orden m -

46. ​​​​2.2. Propiedades de las estimaciones estadísticas de los parámetros de distribución: imparcialidad, eficiencia, coherencia.

2.2. Propiedades de las estimaciones estadísticas.
Parámetros de distribución: imparcialidad, eficiencia, coherencia.
Después de recibir estimaciones estadísticas.
parámetros de distribución aleatoria
valores ξ: media muestral, varianza muestral, etc., debe asegurarse
que son una buena aproximación
para los parámetros correspondientes
distribución teórica ξ.
Encontremos las condiciones que se deben para esto.
llevarse a cabo.

47.

48.

La estimación estadística A* se llama
imparcial si es matemático
la expectativa es igual al parámetro estimado
población A para cualquier
tamaño de la muestra, es decir
Si no se cumple esta condición, la evaluación
llamado desplazado.
La estimación imparcial no es suficiente
condición para una buena aproximación de la estadística
A* puntúa según el valor verdadero (teórico)
del parámetro estimado A.

49.

Dispersión de valores individuales
relativo al valor medio M
depende de la magnitud de la dispersión D.
Si la varianza es grande, entonces el valor
encontrado a partir de datos de una muestra,
puede diferir significativamente de
el parámetro que se está evaluando.
Por lo tanto, para ser confiable
la varianza de estimación D debe
ser pequeño. Evaluación estadística
se llama efectivo si
dado el tamaño de muestra n tiene
la menor variación posible.

50.

Hacia estimaciones estadísticas
hay otro requisito
solvencia. La puntuación se llama
consistente si como n → it
tiende en probabilidad a
el parámetro que se está evaluando. Darse cuenta de
la estimación insesgada será
consistente si como n → es
la varianza tiende a 0.

51. 2.3. Propiedades de una media muestral

Supondremos que las opciones x1, x2,..., xn
son los valores de las correspondientes
variables aleatorias independientes distribuidas idénticamente
,
tener expectativa matemática
y varianza
. Entonces
la media muestral es posible
tratar como una variable aleatoria

52.

Sin desplazar. De propiedades
expectativa matemática se deduce que
aquellos. la media muestral es
estimación insesgada de la matemática
expectativas de una variable aleatoria.
También puede mostrar eficacia.
estimaciones basadas en la media muestral de la expectativa matemática (para condiciones normales)
distribución)

53.

Poder. Sea a el que está siendo evaluado
parámetro, a saber, matemático
expectativa de población
– varianza poblacional
.
Considere la desigualdad de Chebyshev
Tenemos:
Entonces
. Como n → lado derecho
la desigualdad tiende a cero para cualquier ε > 0, es decir
y por lo tanto el valor X que representa la muestra
la estimación tiende al parámetro estimado a por probabilidad.

54.

Así, podemos concluir
que la media muestral es
imparcial, eficaz (según
al menos para lo normal
distribución) y ricos
estimación de expectativa matemática
variable aleatoria asociada con
la población general.

55.

56.

CONFERENCIA 6

57. 2.4. Propiedades de la varianza muestral

Examinemos el insesgo de la varianza muestral D* como
estimaciones de la varianza de una variable aleatoria

58.

59.

60. Ejemplo

Encuentre la media muestral, muestra
varianza y media cuadrática
desviación, moda y muestra corregida
varianza para una muestra que tiene las siguientes
ley de distribución:
Solución:

61.

62. CAPITULO 3. ESTIMACIÓN PUNTUARIA DE PARÁMETROS DE UNA DISTRIBUCIÓN CONOCIDA

63.

Supondremos que la forma general de la ley
La distribución es conocida por nosotros y
Queda por aclarar los detalles.
parámetros que lo definen
forma valida. existe
Varios métodos para resolver esto.
tareas, dos de las cuales
considere: el método de los momentos y el método
más probable

64. 3.1. Método de momentos

65.

Método de momentos desarrollado por Karl.
Pearson en 1894, basado en
usando estas igualdades aproximadas:
momentos
se calculan
teóricamente según la ley conocida
distribuciones con parámetros θ, y
momentos selectivos
se calculan
según la muestra disponible. Desconocido
opciones
están definidos en
como resultado de resolver un sistema de r ecuaciones,
vinculando lo relevante
aspectos teóricos y empíricos,
Por ejemplo,
.

66.

Se puede demostrar que las estimaciones
parámetros θ obtenidos por el método
momentos, ricos, sus
Las expectativas matemáticas son diferentes.
desde los valores verdaderos de los parámetros hasta
valor del orden de n–1, y el promedio
las desviaciones estándar son
valores del orden de n–0,5

67. Ejemplo

Se sabe que la característica ξ de los objetos.
población general, siendo aleatoria
magnitud, tiene una distribución uniforme dependiendo de los parámetros a y b:
Se requiere determinar por el método de los momentos.
parámetros a y b basados ​​en una muestra conocida
promedio
y varianza muestral

68. Recordatorio

α1 – expectativa matemática β2 – dispersión

69.

(*)

70.

71. 3.2. Método de máxima verosimilitud

El método se basa en la función de verosimilitud.
L(x1, x2,..., xn, θ), que es la ley
distribución vectorial
, Dónde
variables aleatorias
tomar valores
opción de muestreo, es decir tener lo mismo
distribución. Dado que las variables aleatorias
independiente, la función de verosimilitud tiene la forma:

72.

La idea del mejor método.
plausibilidad es que nosotros
buscamos tales valores de los parámetros θ, con
que probablemente aparecerán en
opción de valores de muestreo x1, x2,..., xn
es el más grande. En otras palabras,
como estimación de los parámetros θ
se toma un vector para el cual la función
la plausibilidad tiene un carácter local
máximo para x1, x2,…, xn dados:

73.

Estimaciones utilizando el método máximo.
las probabilidades se obtienen de
condición necesaria para un extremo
funciones L(x1,x2,..., xn,θ) en el punto

74. Notas:

1. Al buscar el máximo de la función de verosimilitud
Para simplificar los cálculos, puedes hacer
acciones que no cambian el resultado: en primer lugar,
utilice en lugar de L(x1, x2,..., xn,θ) la función de probabilidad logarítmica l(x1, x2,..., xn,θ) =
ln L(x1, x2,..., xn,θ); en segundo lugar, descartar en la expresión
para la función de probabilidad independiente de θ
términos (para l) o positivos
factores (para L).
2. Las estimaciones de parámetros que hemos considerado son
pueden llamarse estimaciones puntuales, ya que para
El parámetro desconocido θ está determinado por uno.
punto único
, que es su
valor aproximado. Sin embargo, este enfoque
puede dar lugar a errores graves y detectar
la estimación puede diferir significativamente de la verdadera
valores del parámetro estimado (especialmente en
en el caso de un tamaño de muestra pequeño).

75. Ejemplo

Solución. En este problema es necesario evaluar
dos parámetros desconocidos: a y σ2.
Función de probabilidad logarítmica
parece

76.

Al descartar el término en esta fórmula que no es
depende de a y σ2, creemos un sistema de ecuaciones
credibilidad
Resolviendo obtenemos:

77. CAPÍTULO 4. ESTIMACIÓN DEL INTERVALO DE PARÁMETROS DE UNA DISTRIBUCIÓN CONOCIDA

78.









(*)

79.

(*)

80. 4.1. Estimación de la expectativa matemática de una cantidad distribuida normalmente con una varianza conocida







muestra promedio
como un valor aleatorio



81.

Tenemos:
(1)
(2)

82.

(2)
(1)
(*)
(*)

83. 4.2. Estimación de la expectativa matemática de una cantidad distribuida normalmente con varianza desconocida

84.




grados de libertad. Densidad

hay cantidades

85.

86. Densidad de distribución de estudiantes con n – 1 grados de libertad

87.

88.

89.







encontrar por fórmulas

90. 4.3. Estimar la desviación estándar de una cantidad distribuida normalmente





desviación σ.

matemático desconocido
espera.

91. 4.3.1. Un caso especial de la conocida expectativa matemática.






Usando cantidades
,


varianza muestral D*:

92.



cantidades
tener normal




93.


condiciones
Dónde
– densidad de distribución χ2


94.

95.

96.

97. 4.3.2. Un caso especial de expectativa matemática desconocida








(donde la variable aleatoria


χ2 con n–1 grados de libertad.

98.

99. 4.4. Estimar la expectativa matemática de una variable aleatoria para una muestra aleatoria










tamaño de muestra grande (n >> 1).

100.




cantidades
teniendo

dispersión
, y el resultado
muestra promedio
como significado
variable aleatoria

magnitud
tiene asintóticamente


.

101.






usar fórmula

102.

103.

Conferencia 7

104.

Repetición de lo cubierto

105. CAPÍTULO 4. ESTIMACIÓN DEL INTERVALO DE PARÁMETROS DE UNA DISTRIBUCIÓN CONOCIDA

106.

El problema de estimar un parámetro de un conocido.
Las distribuciones se pueden resolver mediante
construir un intervalo en el que, con un dado
probabilidad de obtener el valor real
parámetro. Este método de evaluación
llamada estimación de intervalo.
Generalmente en matemáticas para evaluación.
parámetro θ, la desigualdad se construye
(*)
donde el número δ caracteriza la precisión de la estimación:
cuanto menor sea δ, mejor será la estimación.

107.

(*)

108. 4.1. Estimación de la expectativa matemática de una cantidad distribuida normalmente con una varianza conocida

Sea la variable aleatoria ξ en estudio distribuida según la ley normal con un valor conocido
desviación estándar σ y
expectativa matemática desconocida a.
Requerido por el valor medio de la muestra
estimar la expectativa matemática ξ.
Como antes, consideraremos el resultado.
muestra promedio
como un valor aleatorio
valores, y los valores son la muestra x1, x2,…,
xn – respectivamente, ambos valores son iguales
variables aleatorias independientes distribuidas
, cada uno de los cuales tiene un jaque mate. expectativa a y desviación estándar σ.

109.

Tenemos:
(1)
(2)

110.

(2)
(1)
(*)
(*)

111. 4.2. Estimación de la expectativa matemática de una cantidad distribuida normalmente con varianza desconocida

112.

Se sabe que la variable aleatoria tn,
dado de esta manera tiene
Distribución t de Student con k = n – 1
grados de libertad. Densidad
distribuciones de probabilidad tales
hay cantidades

113.

114. Densidad de distribución de estudiantes con n – 1 grados de libertad

115.

116.

117.

Nota. Con una gran cantidad de grados.
libertad k Distribución de estudiantes
tiende a una distribución normal con
expectativa matemática cero y
variación unitaria. Por lo tanto, para k ≥ 30
El intervalo de confianza es posible en la práctica.
encontrar por fórmulas

118. 4.3. Estimar la desviación estándar de una cantidad distribuida normalmente

Dejemos que la variable aleatoria en estudio
ξ se distribuye normalmente
con expectativa matemática a y
cuadrado medio desconocido
desviación σ.
Consideremos dos casos: con conocidos y
matemático desconocido
espera.

119. 4.3.1. Un caso especial de la conocida expectativa matemática.

Sea conocido el valor M[ξ] = a y requiera
estime solo σ o varianza D[ξ] = σ2.
Recordemos eso con un tapete conocido. espera
la estimación insesgada de la varianza es
varianza muestral D* = (σ*)2
Usando cantidades
,
definido anteriormente, introducimos un aleatorio
cantidad Y, tomando los valores
varianza muestral D*:

120.

Considere la variable aleatoria
Las cantidades bajo el signo son aleatorias.
cantidades
tener normal
distribución con densidad fN (x, 0, 1).
Entonces Hn tiene una distribución χ2 con n
grados de libertad como suma de cuadrados n
estándar independiente (a = 0, σ = 1)
variables aleatorias normales.

121.

Determinemos el intervalo de confianza de
condiciones
Dónde
– densidad de distribución χ2
y γ – confiabilidad (confianza
probabilidad). La cantidad γ es numéricamente igual a
área de la figura sombreada de la Fig.

122.

123.

124.

125. 4.3.2. Un caso especial de expectativa matemática desconocida

En la práctica, la situación más común es
cuando ambos parámetros de la normalidad son desconocidos
distribuciones: expectativa matemática a y
desviación estándar σ.
En este caso, construir una confianza
El intervalo se basa en el teorema de Fisher, de
gato. se deduce que la variable aleatoria
(donde la variable aleatoria
tomando valores imparciales
varianza muestral s2, tiene una distribución
χ2 con n–1 grados de libertad.

126.

127. 4.4. Estimar la expectativa matemática de una variable aleatoria para una muestra aleatoria

Estimaciones matemáticas de intervalo
expectativas M[ξ] obtenidas para normal
variable aleatoria distribuida ξ,
son, en general, inadecuados para
variables aleatorias que tienen una forma diferente
distribuciones. Sin embargo, existe una situación en la que
para cualquier variable aleatoria es posible
usar intervalo similar
relaciones: esto ocurre cuando
tamaño de muestra grande (n >> 1).

128.

Como arriba, consideraremos opciones.
x1, x2,..., xn como valores de independiente,
aleatoriamente distribuida idénticamente
cantidades
teniendo
expectativa matemática M[ξi] = mξ y
dispersión
, y el resultado
muestra promedio
como significado
variable aleatoria
Según el teorema del límite central
magnitud
tiene asintóticamente
ley de distribución normal c
expectativa matemática mξ y varianza
.

129.

Por lo tanto, si se conoce el valor de la varianza
variable aleatoria ξ, entonces podemos
usar fórmulas aproximadas
Si el valor de la dispersión de la cantidad ξ
se desconoce, entonces para n grande es posible
usar fórmula
donde s – valor eficaz corregido. desviación

130.

Repitió lo que habíamos cubierto

131. CAPÍTULO 5. PRUEBA DE HIPÓTESIS ESTADÍSTICAS

132.

Una hipótesis estadística es una hipótesis sobre
forma de una distribución desconocida o sobre parámetros
distribución conocida de una variable aleatoria.
Una hipótesis comprobable, generalmente denotada como
H0 se llama hipótesis nula o principal.
Además se utilizó la hipótesis H1,
la hipótesis contradictoria H0 se llama
competidoras o alternativas.
Prueba estadística de nulo avanzado.
La hipótesis H0 consiste en su comparación con
Data de muestra. Con tal cheque
Pueden ocurrir dos tipos de errores:
a) errores del primer tipo: casos en los que se rechaza
hipótesis correcta H0;
b) errores del segundo tipo: casos en los que
Se acepta la hipótesis incorrecta H0.

133.

La probabilidad de cometer un error tipo I será
llamar al nivel de significancia y designar
como α.
La principal técnica para comprobar las estadísticas.
la hipótesis es que
El valor se calcula a partir de la muestra disponible.
criterio estadístico - algunos
variable aleatoria T que tiene un valor conocido
ley de distribución. Rango de valores T,
bajo el cual la hipótesis principal H0 debería
ser rechazado se llama crítico, y
el rango de valores de T para el cual esta hipótesis
puede ser aceptado, – área de aceptación
hipótesis.

134.

135. 5.1. Probar hipótesis sobre los parámetros de una distribución conocida.

5.1.1. Probando la hipótesis sobre las matemáticas.
esperando un aleatorio distribuido normalmente
cantidades
Sea la variable aleatoria ξ tener
distribución normal.
Necesitamos comprobar la suposición de que
que su expectativa matemática es igual a
a algún número a0. Consideremos por separado
casos en los que se conoce la varianza ξ y en los que
ella es desconocida.

136.

En el caso de dispersión conocida D[ξ] = σ2,
Como en la sección 4.1, definimos un azar.
cantidad tomando valores
muestra promedio. Hipótesis H0
formulado inicialmente como M[ξ] =
a0. Dado que la media muestral
es una estimación insesgada de M[ξ], entonces
La hipótesis H0 se puede representar como

137.

Considerando la imparcialidad de los corregidos
varianzas muestrales, la hipótesis nula puede ser
escribe lo siguiente:
donde esta la variable aleatoria
toma los valores de la muestra corregida
varianza del valor ξ y es similar al azar
el valor de Z, considerado en el numeral 4.2.
Como criterio estadístico elegimos
variable aleatoria
tomando el valor de la relación mayor
varianza muestral a menos.

145.

La variable aleatoria F tiene
Distribución Fischer-Snedecor con
número de grados de libertad k1 = n1 – 1 y k2
= n2 – 1, donde n1 es el tamaño de la muestra, según
que calculó el mayor
varianza corregida
, y n2 –
el tamaño de la segunda muestra, para la cual
se encontró una dispersión menor.
Consideremos dos tipos de competencia.
hipótesis

146.

147.

148. 5.1.3. Comparación de expectativas matemáticas de variables aleatorias independientes.

Consideremos primero el caso normal.
distribuciones de variables aleatorias con valores conocidos.
variaciones, y luego, basándose en ellas, una versión más general
caso de distribución arbitraria de valores en
muestras independientes suficientemente grandes.
Sean independientes las variables aleatorias ξ1 y ξ2 y
se distribuyen normalmente y sean sus varianzas D[ξ1]
y D[ξ2] son ​​conocidos. (Por ejemplo, se pueden encontrar
de alguna otra experiencia o calculado
En teoria). Se extraen muestras de tamaño n1 y n2.
respectivamente. Dejar
– selectivo
promedios para estas muestras. Requerido por seleccionar
promedio en un nivel de significancia dado α
Probar la hipótesis sobre la igualdad de las matemáticas.
Las expectativas de las variables aleatorias consideradas se hacen a partir de consideraciones a priori,
basado en las condiciones experimentales, y
luego suposiciones sobre los parámetros
Las distribuciones se examinan como se muestra.
previamente. Sin embargo, a menudo ocurre
la necesidad de comprobar el avanzado
Hipótesis sobre la ley de distribución.
Pruebas estadísticas destinadas
para tales controles generalmente se llaman
criterios de consentimiento.

154.

Se conocen varios criterios de acuerdo. Dignidad
El criterio de Pearson es su universalidad. Con él
Se puede utilizar para probar hipótesis sobre varios
leyes de distribución.
La prueba de Pearson se basa en la comparación de frecuencias,
encontrados a partir de la muestra (frecuencias empíricas), con
frecuencias calculadas usando las pruebas
ley de distribución (frecuencias teóricas).
Frecuencias típicamente empíricas y teóricas.
variar. Se debe determinar si por casualidad
discrepancia de frecuencia o es significativa y explicada
porque las frecuencias teóricas se calculan basándose en
Hipótesis incorrecta sobre la distribución de la población general.
totalidad.
El criterio de Pearson, como cualquier otro, responde a
La pregunta es si la hipótesis propuesta concuerda con
datos empíricos a un nivel dado
significado.

155. 5.2.1. Probando la hipótesis de la distribución normal.

Sea una variable aleatoria ξ y haga
muestra de un tamaño suficientemente grande n con una gran
opción de número de valores diferentes. Requerido
en el nivel de significancia α, pruebe la hipótesis nula
H0 que la variable aleatoria ξ está distribuida
Bien.
Para facilitar el procesamiento de muestras, tomemos dos números
α y β:
y dividir el intervalo [α, β] por s
subintervalos. Supondremos que los valores son opción,
que caen en cada subintervalo son aproximadamente iguales
un número que especifica la mitad del subintervalo.
Contando el número de variantes que caen en cada Quantilla de orden α (0< α < 1) непрерывной
la variable aleatoria ξ es un número xα tal que
para lo cual se cumple la igualdad
.
El cuantil x½ se llama mediana aleatoria
cantidades ξ, cuantiles x0 y x2 son sus cuartiles, a
x0,1, x0,2,..., x0,9 – en deciles.
Para la distribución normal estándar (a =
0, σ = 1) y, por tanto,
donde FN (x, a, σ) es la función de distribución normal
variable aleatoria distribuida, y Φ(x) –
Función de Laplace.
Cuantil de distribución normal estándar
xα para un α dado se puede encontrar a partir de la relación

162. 6.2. Distribución de estudiantes

Si
- independiente
variables aleatorias que tienen
distribución normal con cero
expectativa matemática y
varianza unitaria, entonces
distribución de una variable aleatoria
llamada distribución de estudiantes
con n grados de libertad (W.S. Gosset).

Ley de los grandes números

La práctica de estudiar fenómenos aleatorios muestra que, aunque los resultados de las observaciones individuales, incluso las realizadas en las mismas condiciones, pueden diferir mucho, los resultados promedio para un número suficientemente grande de observaciones son estables y dependen débilmente de la resultados de observaciones individuales. La base teórica de esta notable propiedad de los fenómenos aleatorios es la ley de los grandes números. El significado general de la ley de los grandes números es que la acción combinada de una gran cantidad de factores aleatorios conduce a un resultado que es casi independiente del azar.

Teorema del límite central

El teorema de Lyapunov explica la distribución generalizada de la ley de distribución normal y explica el mecanismo de su formación. El teorema nos permite afirmar que siempre que se forma una variable aleatoria como resultado de la suma de un gran número de variables aleatorias independientes, cuyas varianzas son pequeñas en comparación con la varianza de la suma, la ley de distribución de esta variable aleatoria se vuelve resulta ser una ley casi normal. Y dado que las variables aleatorias siempre se generan por un número infinito de causas y, en la mayoría de los casos, ninguna de ellas tiene una dispersión comparable a la dispersión de la propia variable aleatoria, la mayoría de las variables aleatorias que se encuentran en la práctica están sujetas a la ley de distribución normal.

Detengámonos con más detalle en el contenido de los teoremas de cada uno de estos grupos.

En la investigación práctica, es muy importante saber en qué casos es posible garantizar que la probabilidad de un evento será suficientemente pequeña o tan cercana como se desee.

Bajo ley de los grandes números y se entiende como un conjunto de proposiciones que afirman que, con una probabilidad cercana a uno (o cero), un evento ocurrirá dependiendo de un número muy grande e indefinidamente creciente de eventos aleatorios, cada uno de los cuales tiene solo una pequeña influencia en él.

Más precisamente, la ley de los grandes números se entiende como un conjunto de proposiciones que establecen que con una probabilidad lo más cercana posible a la unidad, la desviación de la media aritmética de un número suficientemente grande de variables aleatorias de un valor constante: la media aritmética de sus expectativas matemáticas- no excederá un número dado arbitrariamente pequeño.

Los fenómenos individuales y aislados que observamos en la naturaleza y en la vida social a menudo aparecen como aleatorios (por ejemplo, una muerte registrada, el sexo del niño nacido, la temperatura del aire, etc.) debido a que tales fenómenos están influenciados por muchos factores. no relacionado con la esencia del surgimiento o desarrollo de un fenómeno. Es imposible predecir su efecto total sobre un fenómeno observado y se manifiestan de manera diferente en fenómenos individuales. Basándose en los resultados de un fenómeno, no se puede decir nada sobre los patrones inherentes a muchos de esos fenómenos.

Sin embargo, desde hace tiempo se ha observado que la media aritmética de las características numéricas de algunos signos (frecuencias relativas de aparición de un evento, resultados de mediciones, etc.) con un gran número de repeticiones del experimento está sujeta a fluctuaciones muy leves. En el promedio, parece manifestarse un patrón inherente a la esencia de los fenómenos, se anula la influencia de factores individuales que hicieron que los resultados de observaciones individuales fueran aleatorios; Teóricamente, este comportamiento del promedio puede explicarse mediante la ley de los grandes números. Si se cumplen algunas condiciones muy generales relativas a las variables aleatorias, entonces la estabilidad de la media aritmética será un evento casi seguro. Estas condiciones constituyen el contenido más importante de la ley de los grandes números.

El primer ejemplo del funcionamiento de este principio puede ser la convergencia de la frecuencia de ocurrencia de un evento aleatorio con su probabilidad a medida que aumenta el número de intentos, un hecho establecido en el teorema de Bernoulli (matemático suizo Jacob Bernoulli(1654-1705) El teorema de Bernull es una de las formas más simples de la ley de los grandes números y se utiliza con frecuencia en la práctica. Por ejemplo, la frecuencia de aparición de cualquier cualidad de un encuestado en una muestra se toma como estimación de la probabilidad correspondiente).

Destacado matemático francés. Simeón Denny Poisson(1781-1840) generalizó este teorema y lo extendió al caso en que la probabilidad de eventos en una prueba cambia independientemente de los resultados de pruebas anteriores. Fue el primero en utilizar el término "ley de los grandes números".

Gran matemático ruso Pafnutiy Lvovich Chebyshev(1821 - 1894) demostró que la ley de los grandes números opera en fenómenos con cualquier variación y también se extiende a la ley de los promedios.

Una mayor generalización de los teoremas de la ley de los grandes números está asociada con los nombres A.A.Markov, S.N.Bernstein, A.Ya.Khinchin y A.N.Kolmlgorov.

La formulación general moderna del problema, la formulación de la ley de los grandes números, el desarrollo de ideas y métodos para demostrar teoremas relacionados con esta ley pertenecen a los científicos rusos. P. L. Chebyshev, A. A. Markov y A. M. Lyapunov.

LA DESIGUALDAD DE CHEBYSHEV

Consideremos primero los teoremas auxiliares: el lema y la desigualdad de Chebyshev, con cuya ayuda se puede demostrar fácilmente la ley de los grandes números en forma de Chebyshev.

Lema (Chebyshev).

Si entre los valores de una variable aleatoria X no hay valores negativos, entonces la probabilidad de que tome algún valor que exceda el número positivo A no es más que una fracción, cuyo numerador es la expectativa matemática de la variable aleatoria. variable, y el denominador es el número A:

Prueba.Conozcamos la ley de distribución de la variable aleatoria X:

(i = 1, 2, ..., ), y consideramos que los valores de la variable aleatoria están en orden ascendente.

Con respecto al número A, los valores de la variable aleatoria se dividen en dos grupos: algunos no superan a A y otros son mayores que A. Supongamos que el primer grupo incluye los primeros valores de la variable aleatoria. variable ().

Dado que , entonces todos los términos de la suma no son negativos. Por tanto, descartando los primeros términos de la expresión obtenemos la siguiente desigualdad:

Porque el

,

Eso

Q.E.D.

Las variables aleatorias pueden tener diferentes distribuciones con las mismas expectativas matemáticas. Sin embargo, para ellos el lema de Chebyshev dará la misma estimación de la probabilidad de uno u otro resultado de la prueba. Este inconveniente del lema está relacionado con su generalidad: es imposible lograr una mejor estimación para todas las variables aleatorias a la vez.

La desigualdad de Chebyshev .

La probabilidad de que la desviación de una variable aleatoria de su expectativa matemática exceda el valor absoluto de un número positivo no es más que una fracción, cuyo numerador es la varianza de la variable aleatoria y el denominador es el cuadrado.

Prueba.Al ser una variable aleatoria que no toma valores negativos aplicamos la desigualdad del lema de Chebyshev para una variable aleatoria en:


Q.E.D.

Consecuencia. Porque el

,

Eso

- otra forma de desigualdad de Chebyshev

Aceptemos sin pruebas el hecho de que el lema y la desigualdad de Chebyshev también son válidos para variables aleatorias continuas.

La desigualdad de Chebyshev subyace a los enunciados cualitativos y cuantitativos de la ley de los grandes números. Determina el límite superior de la probabilidad de que la desviación del valor de una variable aleatoria de su expectativa matemática sea mayor que un cierto número especificado. Es notable que la desigualdad de Chebyshev proporcione una estimación de la probabilidad de un evento para una variable aleatoria cuya distribución se desconoce; sólo se conocen su expectativa matemática y su varianza.

Teorema. (Ley de los grandes números en forma de Chebyshev)

Si las varianzas de las variables aleatorias independientes están limitadas por una constante C y su número es suficientemente grande, entonces la probabilidad de que la desviación de la media aritmética de estas variables aleatorias de la media aritmética de sus expectativas matemáticas no exceda el valor absoluto de un número positivo dado, por pequeño que sea, tampoco lo era:

.

Aceptamos el teorema sin prueba.

Corolario 1. Si las variables aleatorias independientes tienen expectativas matemáticas iguales, sus varianzas están limitadas por la misma constante C y su número es lo suficientemente grande, entonces no importa cuán pequeño sea el número positivo dado, por muy cerca de la unidad que sea la probabilidad de que desviación del promedio la aritmética de estas variables aleatorias no excederá en valor absoluto.

Este teorema puede justificar el hecho de que la media aritmética de los resultados de un número suficientemente grande de mediciones realizadas en las mismas condiciones se tome como un valor aproximado de una cantidad desconocida. De hecho, los resultados de las mediciones son aleatorios, ya que están influenciados por muchos factores aleatorios. La ausencia de errores sistemáticos significa que las expectativas matemáticas de los resultados de las mediciones individuales son iguales e iguales. En consecuencia, según la ley de los grandes números, la media aritmética de un número suficientemente grande de mediciones diferirá prácticamente tan poco como se desee del valor real de la cantidad deseada.

(Recordemos que los errores se denominan sistemáticos si distorsionan el resultado de la medición en la misma dirección según una ley más o menos clara. Estos incluyen errores que aparecen como resultado de instrumentos imperfectos (errores instrumentales), debido a las características personales del observador. (errores personales) y etc.)

Corolario 2 . (Teorema de Bernoulli).

Si la probabilidad de que ocurra el evento A en cada una de las pruebas independientes es constante y su número es suficientemente grande, entonces la probabilidad de que la frecuencia de ocurrencia del evento difiera tan poco como se desee de la probabilidad de que ocurra es arbitrariamente cercana. a la unidad:

El teorema de Bernoulli establece que si la probabilidad de un evento es la misma en todas las pruebas, entonces a medida que aumenta el número de pruebas, la frecuencia del evento tiende a la probabilidad del evento y deja de ser aleatoria.

En la práctica, es relativamente raro encontrar experimentos en los que la probabilidad de que ocurra un evento en cualquier experimento sea constante; más a menudo varía en diferentes experimentos. El teorema de Poisson se aplica a un esquema de prueba de este tipo:

Corolario 3 . (Teorema de Poisson).

Si la probabilidad de que ocurra un evento en el -ésimo ensayo no cambia cuando se conocen los resultados de las pruebas anteriores, y su número es suficientemente grande, entonces la probabilidad de que la frecuencia de ocurrencia del evento difiera arbitrariamente poco de la aritmética El promedio de las probabilidades es arbitrariamente cercano a la unidad:

El teorema de Poisson establece que la frecuencia de un evento en una serie de ensayos independientes tiende a la media aritmética de sus probabilidades y deja de ser aleatorio.

En conclusión, observamos que ninguno de los teoremas considerados da un valor exacto o incluso aproximado de la probabilidad deseada, sino que solo se indica su límite inferior o superior. Por tanto, si es necesario establecer el valor exacto o al menos aproximado de las probabilidades de los eventos correspondientes, las posibilidades de estos teoremas son muy limitadas.

Las probabilidades aproximadas para valores grandes solo se pueden obtener utilizando teoremas de límites. En ellos, se imponen restricciones adicionales a las variables aleatorias (como es el caso, por ejemplo, en el teorema de Lyapunov), o se consideran variables aleatorias de un determinado tipo (por ejemplo, en el teorema integral de Moivre-Laplace).

La importancia teórica del teorema de Chebyshev, que es una formulación muy general de la ley de los grandes números, es enorme. Sin embargo, si lo aplicamos a la pregunta de si es posible aplicar la ley de los números grandes a una secuencia de variables aleatorias independientes, entonces, si la respuesta es afirmativa, el teorema a menudo requerirá que haya muchas más variables aleatorias de las que hay. necesario para que la ley de los grandes números entre en vigor. Esta desventaja del teorema de Chebyshev se explica por su carácter general. Por lo tanto, es deseable tener teoremas que indiquen con mayor precisión el límite inferior (o superior) de la probabilidad deseada. Se pueden obtener imponiendo algunas restricciones adicionales a las variables aleatorias, que generalmente se satisfacen con las variables aleatorias que se encuentran en la práctica.

NOTAS SOBRE EL CONTENIDO DE LA LEY DE LOS GRANDES NÚMEROS

Si el número de variables aleatorias es lo suficientemente grande y satisfacen algunas condiciones muy generales, entonces, sin importar cómo se distribuyan, es casi seguro que su media aritmética se desvía tan poco como se desee de un valor constante: la media aritmética de sus expectativas matemáticas. , es decir, es un valor casi constante. Este es el contenido de los teoremas relacionados con la ley de los grandes números. En consecuencia, la ley de los grandes números es una de las expresiones de la conexión dialéctica entre azar y necesidad.

Se pueden dar muchos ejemplos del surgimiento de nuevos estados cualitativos como manifestaciones de la ley de los grandes números, principalmente entre los fenómenos físicos. Consideremos uno de ellos.

Según los conceptos modernos, los gases consisten en partículas individuales, moléculas que están en movimiento caótico, y es imposible decir exactamente dónde estará en un momento dado y a qué velocidad se moverá esta o aquella molécula. Sin embargo, las observaciones muestran que el efecto total de las moléculas, por ejemplo la presión del gas, sobre

la pared del vaso, se manifiesta con una consistencia asombrosa. Está determinado por el número de golpes y la fuerza de cada uno de ellos. Aunque el primero y el segundo son cuestión de suerte, los dispositivos no detectan fluctuaciones en la presión del gas en condiciones normales. Esto se explica por el hecho de que, debido a la gran cantidad de moléculas, incluso en los volúmenes más pequeños

un cambio de presión notable es prácticamente imposible. En consecuencia, la ley física que establece la constancia de la presión del gas es una manifestación de la ley de los grandes números.

La constancia de la presión y algunas otras características del gas sirvieron en un momento como un argumento convincente contra la teoría molecular de la estructura de la materia. Posteriormente, aprendieron a aislar un número relativamente pequeño de moléculas, de modo que la influencia de las moléculas individuales aún permaneciera y, por lo tanto, la ley de los grandes números no pudiera manifestarse en suficiente medida. Luego se observaron fluctuaciones en la presión del gas, lo que confirmó la hipótesis sobre la estructura molecular de la sustancia.

La ley de los grandes números subyace a varios tipos de seguros (seguros de vida humana por todos los períodos posibles, propiedad, ganado, cultivos, etc.).

Al planificar la gama de bienes de consumo, se tiene en cuenta la demanda de la población. Esta demanda revela el efecto de la ley de los grandes números.

El método de muestreo, muy utilizado en estadística, encuentra su base científica en la ley de los grandes números. Por ejemplo, la calidad del trigo transportado desde una granja colectiva hasta el punto de adquisición se juzga por la calidad de los granos capturados accidentalmente en pequeñas cantidades. No hay mucho grano en la medida en comparación con todo el lote, pero en cualquier caso, la medida se elige de manera que haya suficientes granos para

manifestaciones de la ley de grandes números con una precisión que satisfaga la necesidad. Tenemos derecho a tomar en la muestra los indicadores correspondientes como indicadores de contaminación, humedad y peso medio de grano de todo el lote de grano entrante.

Otros esfuerzos de los científicos para profundizar el contenido de la ley de los grandes números tuvieron como objetivo obtener las condiciones más generales para la aplicabilidad de esta ley a una secuencia de variables aleatorias. Desde hace mucho tiempo no se han producido éxitos fundamentales en este sentido. Después de P. L. Chebyshev y A. A. Markov, recién en 1926 el académico soviético A. N. Kolmogorov logró obtener las condiciones necesarias y suficientes para que la ley de los grandes números fuera aplicable a una secuencia de variables aleatorias independientes. En 1928, el científico soviético A. Ya Khinchin demostró que una condición suficiente para la aplicabilidad de la ley de los grandes números a una secuencia de variables aleatorias independientes distribuidas de manera idéntica es la existencia de su expectativa matemática.

Para la práctica, es extremadamente importante aclarar completamente la cuestión de la aplicabilidad de la ley de los grandes números a variables aleatorias dependientes, ya que los fenómenos en la naturaleza y la sociedad son mutuamente dependientes y se determinan mutuamente. Se ha dedicado mucho trabajo a aclarar las restricciones que deben imponerse

sobre variables aleatorias dependientes para que se les pueda aplicar la ley de los grandes números, y los más importantes pertenecen al destacado científico ruso A. A. Markov y a los destacados científicos soviéticos S. N. Bernstein y A. Khinchin.

El principal resultado de estos trabajos es que la ley de los números grandes se puede aplicar a variables aleatorias dependientes sólo si existe una fuerte dependencia entre variables aleatorias con números cercanos, y entre variables aleatorias con números distantes la dependencia es suficientemente débil. Ejemplos de variables aleatorias de este tipo son las características numéricas del clima. El clima de cada día está notablemente influenciado por el clima de los días anteriores, y la influencia se debilita notablemente a medida que los días se alejan unos de otros. En consecuencia, la temperatura media a largo plazo, la presión y otras características del clima de una zona determinada, de acuerdo con la ley de los grandes números, deberían prácticamente acercarse a sus expectativas matemáticas. Estas últimas son características objetivas del clima de la zona.

Para probar experimentalmente la ley de los grandes números, se llevaron a cabo los siguientes experimentos en diferentes momentos.

1. Experiencia bufón. La moneda se lanza 4040 veces. El escudo de armas apareció 2048 veces. La frecuencia de su aparición resultó ser igual a 0,50694 =

2. Experiencia pearson. La moneda se lanza 12.000 y 24.000 veces. La frecuencia de pérdida del escudo de armas en el primer caso fue de 0,5016, en el segundo de 0,5005.

H. Experiencia Vestergaard. De una urna en la que había igual número de bolas blancas y negras, se obtuvieron 5011 bolas blancas y 4989 negras después de 10.000 sorteos (la siguiente bola extraída se devolvió a la urna). La frecuencia de las bolas blancas fue 0,50110 = (), y la frecuencia de las bolas negras fue 0,49890.

4. Experimenta V.I. Romanovsky. Se lanzan cuatro monedas 21.160 veces. Las frecuencias y frecuencias de varias combinaciones de escudos de armas y marcas hash se distribuyeron de la siguiente manera:

Combinaciones del número de caras y cruces.

Frecuencias

Frecuencias

Empírico

Teórico

4 y 0

1 181

0,05858

0,0625

3 y 1

4909

0,24350

0,2500

2 y 2

7583

0,37614

0,3750

1 y 3

5085

0,25224

0,2500

1 y 4

0,06954

0,0625

Total

20160

1,0000

1,0000

Los resultados de las pruebas experimentales de la ley de los grandes números nos convencen de que las frecuencias experimentales están muy cerca de las probabilidades.

TEOREMA DEL LÍMITE CENTRAL

No es difícil demostrar que la suma de cualquier número finito de variables aleatorias independientes distribuidas normalmente también está distribuida normalmente.

Si las variables aleatorias independientes no están distribuidas normalmente, entonces se les pueden imponer algunas restricciones muy flexibles y su suma seguirá estando distribuida normalmente.

Este problema fue planteado y resuelto principalmente por los científicos rusos P. L. Chebyshev y sus alumnos A. A. Markov y A. M. Lyapunov.

Teorema (Lyapunov).

Si las variables aleatorias independientes tienen expectativas matemáticas finitas y varianzas finitas , su número es bastante grande y con un aumento ilimitado

,

¿Dónde están los momentos centrales absolutos de tercer orden? Entonces su suma tiene una distribución con un grado suficiente de precisión.

(De hecho, no presentamos el teorema de Lyapunov, sino uno de sus corolarios, ya que este corolario es suficiente para aplicaciones prácticas. Por lo tanto, la condición, que se llama condición de Lyapunov, es un requisito más fuerte de lo necesario para demostrar el teorema de Lyapunov en sí. )

El significado de la condición es que el efecto de cada término (variable aleatoria) es pequeño en comparación con el efecto total de todos ellos. Muchos fenómenos aleatorios que ocurren en la naturaleza y en la vida social se desarrollan precisamente según este patrón. En este sentido, el teorema de Lyapunov tiene una importancia excepcionalmente grande y la ley de distribución normal es una de las leyes básicas de la teoría de la probabilidad.

Produzcamos, por ejemplo, medición de algún tamaño. Varias desviaciones de los valores observados de su valor real (expectativa matemática) se obtienen como resultado de la influencia de una gran cantidad de factores, cada uno de los cuales genera un pequeño error, y . Entonces, el error total de medición es una variable aleatoria que, según el teorema de Lyapunov, debe distribuirse según la ley normal.

En disparando un arma Bajo la influencia de una gran cantidad de causas aleatorias, los proyectiles se dispersan en un área determinada. Los impactos aleatorios en la trayectoria del proyectil pueden considerarse independientes. Cada causa provoca sólo un ligero cambio en la trayectoria en comparación con el cambio total bajo la influencia de todas las causas. Por lo tanto, deberíamos esperar que la desviación del lugar de explosión del proyectil con respecto al objetivo sea una variable aleatoria distribuida según una ley normal.

Según el teorema de Lyapunov, podemos esperar que, por ejemplo, altura del macho adulto es una variable aleatoria distribuida según una ley normal. Esta hipótesis, así como las consideradas en los dos ejemplos anteriores, concuerda bien con las observaciones. Para confirmarlo, presentamos la distribución por altura de 1000 trabajadores varones adultos, el número teórico correspondiente de hombres, es decir, el número de hombres que deberían. tener la altura de estos grupos, basándose en el supuesto de la distribución de la altura de los hombres según la ley normal.

Altura (cm

numero de hombres

datos experimentales

teórico

previsiones

143-146

146-149

149-152

152-155

155-158

158- 161

161- 164

164-167

167-170

170-173

173-176

176-179

179 -182

182-185

185-188

Sería difícil esperar una concordancia más precisa entre los datos experimentales y los datos teóricos.

Se puede demostrar fácilmente, como consecuencia del teorema de Lyapunov, una proposición que será necesaria en el futuro para justificar el método de muestreo.

Oferta.

La suma de un número suficientemente grande de variables aleatorias distribuidas idénticamente con momentos centrales absolutos de tercer orden se distribuye según la ley normal.

Los teoremas límite de la teoría de la probabilidad, el teorema de Moivre-Laplace, explican la naturaleza de la estabilidad de la frecuencia de ocurrencia de un evento. Esta naturaleza radica en el hecho de que la distribución límite del número de ocurrencias de un evento con un aumento ilimitado en el número de ensayos (si la probabilidad del evento es la misma en todos los ensayos) es una distribución normal.

Sistema de variables aleatorias.

Las variables aleatorias consideradas anteriormente eran unidimensionales, es decir estaban determinadas por un número, sin embargo, también hay variables aleatorias que están determinadas por dos, tres, etc. números. Estas variables aleatorias se denominan bidimensionales, tridimensionales, etc.

Dependiendo del tipo de variables aleatorias incluidas en el sistema, los sistemas pueden ser discretos, continuos o mixtos si el sistema incluye diferentes tipos de variables aleatorias.

Echemos un vistazo más de cerca a los sistemas de dos variables aleatorias.

Definición. Ley de distribución Un sistema de variables aleatorias es una relación que establece una conexión entre las áreas de valores posibles de un sistema de variables aleatorias y las probabilidades del sistema que aparece en estas áreas.

Ejemplo. De una urna que contiene 2 bolas blancas y tres negras se sacan dos bolas. Sea el número de bolas blancas extraídas y la variable aleatoria se define de la siguiente manera:


Creemos una tabla de distribución para el sistema de variables aleatorias:

Dado que es la probabilidad de que no se extraigan bolas blancas (lo que significa que se extraen dos bolas negras), y , entonces

.

Probabilidad

.

Probabilidad

Probabilidad - la probabilidad de que no se extraigan bolas blancas (y, por tanto, se extraigan dos bolas negras), mientras que , entonces

Probabilidad - la probabilidad de que salga una bola blanca (y, por tanto, una negra), mientras que , entonces

Probabilidad - la probabilidad de que se extraigan dos bolas blancas (y, por tanto, ninguna negra), mientras que , entonces

.

Así, la serie de distribución de una variable aleatoria bidimensional tiene la forma:

Definición. Función de distribución un sistema de dos variables aleatorias se llama función de dos argumentosF( X, y) , igual a la probabilidad de cumplimiento conjunto de dos desigualdadesX< X, Y< y.


Observemos las siguientes propiedades de la función de distribución de un sistema de dos variables aleatorias:

1) ;

2) La función de distribución es una función no decreciente para cada argumento:

3) Lo siguiente es cierto:

4)


5) Probabilidad de alcanzar un punto aleatorio ( X,Y ) en un rectángulo arbitrario con lados paralelos a los ejes de coordenadas, se calcula mediante la fórmula:


Densidad de distribución de un sistema de dos variables aleatorias.

Definición. Densidad de distribución conjunta probabilidades de una variable aleatoria bidimensional ( X,Y ) se llama segunda derivada parcial mixta de la función de distribución.

Si se conoce la densidad de distribución, entonces la función de distribución se puede encontrar mediante la fórmula:

La densidad de distribución bidimensional no es negativa y la integral doble con límites infinitos de la densidad bidimensional es igual a uno.

A partir de la densidad conocida de la distribución conjunta, se puede encontrar la densidad de distribución de cada uno de los componentes de una variable aleatoria bidimensional.

; ;

Leyes condicionales de distribución.

Como se muestra arriba, conociendo la ley de distribución conjunta, puede encontrar fácilmente las leyes de distribución de cada variable aleatoria incluida en el sistema.

Sin embargo, en la práctica, a menudo se enfrenta el problema inverso: utilizando las leyes conocidas de distribución de variables aleatorias, encuentre su ley de distribución conjunta.

En el caso general, este problema no tiene solución, porque la ley de distribución de una variable aleatoria no dice nada sobre la relación de esta variable con otras variables aleatorias.

Además, si las variables aleatorias dependen unas de otras, entonces la ley de distribución no se puede expresar mediante las leyes de distribución de componentes, porque debe establecer conexiones entre los componentes.

Todo esto lleva a la necesidad de considerar leyes de distribución condicional.

Definición. La distribución de una variable aleatoria incluida en el sistema, encontrada bajo la condición de que otra variable aleatoria haya tomado un cierto valor, se llama ley de distribución condicional.

La ley de distribución condicional puede especificarse tanto por la función de distribución como por la densidad de distribución.

La densidad de distribución condicional se calcula mediante las fórmulas:

La densidad de distribución condicional tiene todas las propiedades de la densidad de distribución de una variable aleatoria.

Expectativa matemática condicional.

Definición. Expectativa matemática condicional variable aleatoria discreta Y en X = x (x – un cierto valor posible de X) es el producto de todos los valores posibles Y en sus probabilidades condicionales.

Para variables aleatorias continuas:

,

Dónde F( y/ X) – densidad condicional de la variable aleatoria Y en X = x.

Expectativa matemática condicionalMETRO( Y/ X)= F( X) es una función de X y se llama función de regresión X en Y.

Ejemplo.Encuentre la expectativa matemática condicional del componente. Y en

X=x1 =1 para una variable aleatoria discreta de dos dimensiones dada por la tabla:

Y

x 1 = 1

x2=3

x3=4

x4=8

y 1 = 3

0,15

0,06

0,25

0,04

y 2 = 6

0,30

0,10

0,03

0,07

La varianza condicional y los momentos condicionales de un sistema de variables aleatorias se determinan de manera similar.

Variables aleatorias dependientes e independientes.

Definición. Las variables aleatorias se llaman independiente, si la ley de distribución de una de ellas no depende del valor de la otra variable aleatoria.

El concepto de dependencia de variables aleatorias es muy importante en la teoría de la probabilidad.

Las distribuciones condicionales de variables aleatorias independientes son iguales a sus distribuciones incondicionales.

Determinemos las condiciones necesarias y suficientes para la independencia de variables aleatorias.

Teorema. Y fueran independientes, es necesario y suficiente que la función de distribución del sistema ( X, Y) era igual al producto de las funciones de distribución de los componentes.

Se puede formular un teorema similar para la densidad de distribución:

Teorema. Para que las variables aleatorias X y Y fueran independientes, es necesario y suficiente que la densidad de distribución conjunta del sistema ( X, Y) era igual al producto de las densidades de distribución de los componentes.

En la práctica se utilizan las siguientes fórmulas:

Para variables aleatorias discretas:

Para variables aleatorias continuas:

El momento de correlación sirve para caracterizar la relación entre variables aleatorias. Si las variables aleatorias son independientes, entonces su momento de correlación es igual a cero.

El momento de correlación tiene una dimensión igual al producto de las dimensiones de las variables aleatorias X y Y . Este hecho es una desventaja de esta característica numérica, porque Con diferentes unidades de medida se obtienen diferentes momentos de correlación, lo que dificulta comparar los momentos de correlación de diferentes variables aleatorias.

Para eliminar este inconveniente, se utiliza otra característica: el coeficiente de correlación.

Definición. Coeficiente de correlación r xy variables aleatorias X y Y se llama relación entre el momento de correlación y el producto de las desviaciones estándar de estas cantidades.

El coeficiente de correlación es una cantidad adimensional. Para variables aleatorias independientes, el coeficiente de correlación es cero.

Propiedad: El valor absoluto del momento de correlación de dos variables aleatorias X e Y no excede la media geométrica de sus varianzas.

Propiedad: El valor absoluto del coeficiente de correlación no supera uno.

Las variables aleatorias se llaman correlacionado, si su momento de correlación es diferente de cero, y no correlacionado, si su momento de correlación es cero.

Si las variables aleatorias son independientes, entonces no están correlacionadas, pero de la falta de correlación no se puede concluir que sean independientes.

Si dos cantidades son dependientes, entonces pueden estar correlacionadas o no correlacionadas.

A menudo, a partir de una densidad de distribución dada de un sistema de variables aleatorias, se puede determinar la dependencia o independencia de estas variables.

Junto con el coeficiente de correlación, el grado de dependencia de las variables aleatorias se puede caracterizar por otra cantidad, que se llama coeficiente de covarianza. El coeficiente de covarianza viene dado por la fórmula:

Ejemplo. La densidad de distribución del sistema de variables aleatorias X está dada yindependiente. Por supuesto, tampoco estarán correlacionados.

Regresión lineal.

Considere una variable aleatoria bidimensional ( X, Y), donde X e Y son variables aleatorias dependientes.

Representemos aproximadamente una variable aleatoria en función de otra. No es posible una coincidencia exacta. Supondremos que esta función es lineal.

Para determinar esta función sólo queda encontrar los valores constantes a Y b.

Definición. Funcióngramo( X) llamado mejor aproximación variable aleatoria Y en el sentido del método de mínimos cuadrados, si la expectativa matemática

Toma el valor más pequeño posible. También funcionagramo( X) llamado regresión cuadrática media Y a X.

Teorema. Regresión cuadrática media lineal Y en X se calcula mediante la fórmula:

en esta fórmula mx= METRO( variable aleatoria Yrelativo a una variable aleatoria X. Este valor caracteriza la magnitud del error generado al reemplazar una variable aleatoria.Yfunción linealgramo( X) = aX+b.

Está claro que si r= ± 1, entonces la varianza residual es cero y, por lo tanto, el error es cero y la variable aleatoriaYrepresentado exactamente por una función lineal de una variable aleatoria X.

Línea de regresión cuadrática media X enYse determina de manera similar mediante la fórmula: X y Ytienen funciones de regresión lineal entre sí, entonces dicen que las cantidades X YYconectado dependencia de correlación lineal.

Teorema. Si una variable aleatoria bidimensional ( X, Y) se distribuye normalmente, entonces X y Y están conectados por una correlación lineal.

P.EJ. Nikiforova


Comparte con amigos o guarda para ti mismo:

Cargando...