Métodos estadísticos probabilísticos. Métodos de estadística

De particular interés es la evaluación cuantitativa del riesgo empresarial utilizando los métodos de la estadística matemática. Las principales herramientas de este método de evaluación son:

§ la probabilidad de aparición de una variable aleatoria,

§ expectativa matemática o valor promedio de la variable aleatoria investigada,

Diferencia,

§ desviación estándar (raíz cuadrada media),

§ el coeficiente de variación,

§ distribución de probabilidad de la variable aleatoria investigada.

Para tomar una decisión, necesita conocer la magnitud (grado) del riesgo, que se mide según dos criterios:

1) valor promedio esperado (expectativa matemática),

2) fluctuaciones (variabilidad) del posible resultado.

Valor medio esperado este es el promedio ponderado de la variable aleatoria, que está asociado con la incertidumbre de la situación:

,

donde es el valor de la variable aleatoria.

El valor promedio esperado mide el resultado que esperamos en promedio.

El valor promedio es una característica cualitativa generalizada y no permite tomar una decisión a favor de un valor particular de una variable aleatoria.

Para tomar una decisión, es necesario medir las fluctuaciones en los indicadores, es decir, determinar la medida de variabilidad de un posible resultado.

La fluctuación en el posible resultado es el grado en que el valor esperado se desvía de la media.

Para ello, en la práctica, se suelen utilizar dos criterios estrechamente relacionados: "varianza" y "desviación estándar".

Dispersión - el promedio ponderado de los cuadrados de los resultados reales del promedio esperado:

Desviación Estándar Es la raíz cuadrada de la varianza. Es una cantidad dimensional y se mide en las mismas unidades en las que se mide la variable aleatoria investigada:

.

La dispersión y la desviación estándar son medidas de fluctuación absoluta. El coeficiente de variación se suele utilizar para el análisis.

El coeficiente de variación es la relación entre la desviación estándar y el valor medio esperado, multiplicado por 100%

o .

El coeficiente de variación no se ve afectado por los valores absolutos del indicador estudiado.

Usando el coeficiente de variación, incluso puede comparar las fluctuaciones de características expresadas en diferentes unidades de medida. El coeficiente de variación puede variar de 0 a 100%. Cuanto mayor sea el coeficiente, mayor será la fluctuación.


En estadística económica se establece la siguiente estimación de diferentes valores del coeficiente de variación:

hasta 10% - fluctuación débil, 10 - 25% - moderada, más del 25% - alta.

En consecuencia, cuanto mayores son las fluctuaciones, mayor es el riesgo.

Ejemplo. El dueño de una pequeña tienda al comienzo de cada día compra algún producto perecedero para la venta. Una unidad de este producto cuesta 200 UAH. Precio de venta - 300 UAH. para una unidad. Se sabe a partir de las observaciones que la demanda de este producto a lo largo del día puede ser de 4, 5, 6 o 7 unidades con las correspondientes probabilidades de 0,1; 0,3; 0,5; 0,1. Si el producto no se vende durante el día, al final del día siempre se comprará a un precio de 150 UAH. para una unidad. ¿Cuántas unidades de este producto debe comprar el dueño de la tienda al comienzo del día?

Solución. Construyamos una matriz de ganancias para el dueño de la tienda. Calculemos la ganancia que recibirá el propietario si, por ejemplo, compra 7 unidades del producto y vende una unidad durante el día 6 y al final del día. Cada unidad del producto vendido durante el día da una ganancia de UAH 100, y al final del día, pérdidas de 200 - 150 = 50 UAH. Así, la ganancia en este caso será:

Los cálculos se realizan de manera similar para otras combinaciones de oferta y demanda.

La ganancia esperada se calcula como la expectativa matemática de los posibles valores de la ganancia de cada fila de la matriz construida, teniendo en cuenta las probabilidades correspondientes. Como puede ver, entre las ganancias esperadas, la más grande es UAH 525. Corresponde a la compra del producto en cuestión por la cantidad de 6 unidades.

Para fundamentar la recomendación final sobre la compra de la cantidad requerida de unidades del producto, calculamos la varianza, la desviación estándar y el coeficiente de variación para cada combinación posible de oferta y demanda del producto (cada fila de la matriz de ganancias):

400 0,1 40 16000
400 0,3 120 48000
400 0,5 200 80000
400 0,1 40 16000
1,0 400 160000
350 0,1 35 12250
500 0,3 150 75000
500 0,5 250 125000
500 0,1 50 25000
1,0 485 2372500
300 0,1 30 9000
450 0,3 135 60750
600 0,5 300 180000
600 0,1 60 36000
1,0 525 285750

En cuanto a la compra por parte del dueño de la tienda de 6 unidades de un producto en comparación con 5 y 4 unidades, esto no es obvio, ya que el riesgo al comprar 6 unidades de un producto (19,2%) es mayor que al comprar 5 unidades (9,3%). %) y más aún que al comprar 4 unidades (0%).

Así, disponemos de toda la información sobre los beneficios y riesgos esperados. Y el dueño de la tienda decide cuántas unidades del producto comprar cada mañana, teniendo en cuenta su experiencia, su apetito por el riesgo.

En nuestra opinión, se debe recomendar al propietario de la tienda que compre 5 unidades del producto todas las mañanas y su beneficio promedio esperado será igual a 485 UAH. y si lo comparamos con la compra de 6 unidades del producto, en el que el beneficio medio esperado es de 525 UAH, que es de 40 UAH. más, pero el riesgo en este caso será 2,06 veces mayor.

¿Cómo se utilizan la teoría de la probabilidad y la estadística matemática? Estas disciplinas son la base de los métodos estadísticos probabilísticos. Toma de decisiones... Para usar su aparato matemático, necesitas problemas Toma de decisiones expresado en términos de modelos estadísticos probabilísticos. Aplicación de un método estadístico probabilístico específico Toma de decisiones consta de tres etapas:

  • transición de la realidad económica, administrativa y tecnológica a un esquema matemático y estadístico abstracto, es decir, construcción de un modelo probabilístico de un sistema de control, proceso tecnológico, procedimientos de toma de decisiones, en particular, sobre la base de los resultados del control estadístico, etc.;
  • realizar cálculos y obtener conclusiones por medios puramente matemáticos en el marco de un modelo probabilístico;
  • interpretación de conclusiones matemáticas y estadísticas en relación con una situación real y toma de una decisión adecuada (por ejemplo, sobre la conformidad o no conformidad de la calidad del producto con los requisitos establecidos, la necesidad de ajustar el proceso tecnológico, etc.), en particular, conclusiones (sobre la proporción de unidades de productos defectuosos en un lote, sobre formas específicas de leyes de distribución parámetros monitoreados proceso tecnológico, etc.).

La estadística matemática utiliza los conceptos, métodos y resultados de la teoría de la probabilidad. Considere los principales problemas de la construcción de modelos probabilísticos. Toma de decisiones en situaciones económicas, gerenciales, tecnológicas y otras. Para el uso activo y correcto de documentos normativos-técnicos e instruccionales-metodológicos sobre métodos probabilísticos-estadísticos. Toma de decisiones requiere conocimientos previos. Por lo tanto, es necesario saber en qué condiciones se debe aplicar un documento en particular, qué información inicial es necesaria para su selección y aplicación, qué decisiones se deben tomar en función de los resultados del procesamiento de datos, etc.

Ejemplos de aplicación de la teoría de la probabilidad y la estadística matemática.... Consideremos varios ejemplos en los que los modelos estadísticos probabilísticos son una buena herramienta para resolver problemas de gestión, producción, económicos y económicos nacionales. Así, por ejemplo, en la novela de A.N. "Caminando a través de la agonía" de Tolstoi (v. 1) dice: "el taller da el veintitrés por ciento del matrimonio, y usted se adhiere a esta cifra", le dijo Strukov a Ivan Ilich ".

Surge la pregunta de cómo entender estas palabras en la conversación de los gerentes de fábrica, ya que una unidad de producción no puede tener un 23% de defectos. Puede ser bueno o defectuoso. Probablemente, Strukov quiso decir que un lote grande contiene aproximadamente el 23% de los artículos defectuosos. Entonces surge la pregunta, ¿qué significa "acerca de"? Deje que 30 de cada 100 unidades de producción probadas resulten defectuosas, o de 1000-300, o de 100000-30000, etc., ¿se debería acusar a Strukov de mentir?

U otro ejemplo. La moneda que se utilizará como lote debe ser "simétrica", es decir, al arrojarlo, en promedio, en la mitad de los casos, el escudo de armas debe caerse, y en la mitad de los casos, la celosía (colas, número). Pero, ¿qué significa "promedio"? Si realiza muchas series de 10 lanzamientos en cada serie, a menudo habrá series en las que la moneda salga 4 veces con el emblema. Para una moneda simétrica, esto ocurrirá en el 20,5% de la serie. Y si hay 40.000 escudos de armas por cada 100.000 lanzamientos, ¿se puede considerar simétrica la moneda? Procedimiento Toma de decisiones está construido sobre la base de la teoría de la probabilidad y la estadística matemática.

El ejemplo en cuestión puede no parecer lo suficientemente serio. Sin embargo, no lo es. El sorteo se usa ampliamente en la organización de experimentos industriales técnicos y económicos, por ejemplo, al procesar los resultados de la medición del indicador de calidad (momento de fricción) de los rodamientos en función de varios factores tecnológicos (la influencia de un medio de conservación, métodos de preparación de los cojinetes antes de la medición, el efecto de la carga del cojinete durante la medición, etc.). NS.). Digamos que es necesario comparar la calidad de los rodamientos en función de los resultados de su almacenamiento en diferentes aceites de conservación, es decir. en aceites de composición y. Al planificar tal experimento, surge la pregunta, qué cojinetes deben colocarse en el aceite de la composición y cuáles en el aceite de la composición, pero de tal manera que se evite la subjetividad y se asegure la objetividad de la decisión.

La respuesta a esta pregunta se puede obtener por sorteo. Se puede dar un ejemplo similar con el control de calidad de cualquier producto. Para decidir si un lote controlado de productos cumple o no con los requisitos establecidos, se toma una muestra. Sobre la base de los resultados del muestreo, se llega a una conclusión sobre todo el lote. En este caso, es muy importante evitar la subjetividad en la selección de la muestra, es decir es necesario que cada artículo del lote controlado tenga la misma probabilidad de ser seleccionado en la muestra. En condiciones de producción, la selección de unidades de producción en la muestra generalmente no se realiza por lote, sino mediante tablas especiales de números aleatorios o utilizando sensores de números aleatorios por computadora.

Al comparar diferentes esquemas surgen problemas similares para asegurar la objetividad de la comparación. organización de la producción, remuneración, durante licitaciones y concursos, selección de candidatos para puestos vacantes, etc. Se necesitan sorteos o procedimientos similares en todas partes. Expliquemos usando el ejemplo de identificar los equipos más fuertes y los segundos más fuertes al organizar un torneo según el sistema olímpico (el perdedor es eliminado). Dejemos que el equipo más fuerte gane siempre al más débil. Está claro que el equipo más fuerte definitivamente se convertirá en campeón. El segundo equipo más fuerte llegará a la final si y solo si no tiene partidos con el futuro campeón antes de la final. Si se planea un juego así, el segundo equipo más fuerte no llegará a la final. Cualquiera que esté planeando un torneo puede "noquear" al segundo equipo más fuerte del torneo antes de lo programado, reuniéndolo en la primera reunión con el líder, o asegurarle el segundo lugar, asegurando reuniones con los equipos más débiles hasta la final. Para evitar la subjetividad, echa suertes. Para un torneo de 8 equipos, la probabilidad de que los dos equipos más fuertes se enfrenten en la final es 4/7. En consecuencia, con una probabilidad de 3/7, el segundo equipo más fuerte abandonará el torneo antes de lo previsto.

Cualquier medida de unidades de producto (usando un calibre, micrómetro, amperímetro, etc.) tiene errores. Para saber si existen errores sistemáticos, es necesario realizar múltiples mediciones de una unidad de producción, cuyas características se conocen (por ejemplo, una muestra estándar). Cabe recordar que además de lo sistemático, también existe un error aleatorio.

Por tanto, surge la cuestión de cómo averiguar a partir de los resultados de la medición si existe un error sistemático. Si solo notamos si el error obtenido durante la siguiente medición es positivo o negativo, entonces este problema se puede reducir al anterior. De hecho, comparemos la medida con el lanzamiento de una moneda, el error positivo - con la caída del escudo, el negativo - con la celosía (el error cero con un número suficiente de divisiones de escala prácticamente nunca ocurre). Entonces, verificar la ausencia de un error sistemático equivale a verificar la simetría de la moneda.

El propósito de este razonamiento es reducir el problema de verificar la ausencia de un error sistemático al problema de verificar la simetría de una moneda. El razonamiento anterior conduce al llamado "criterio de signo" en estadística matemática.

Con la regulación estadística de los procesos tecnológicos en base a los métodos de la estadística matemática, se desarrollan reglas y planes de control estadístico de procesos, orientados a la detección oportuna de disrupciones en los procesos tecnológicos, tomando medidas para ajustarlas y previniendo la liberación de productos que no cumplen con los requisitos establecidos. Estas medidas tienen como objetivo reducir los costos de producción y las pérdidas por el suministro de unidades deficientes. Con el control estadístico de aceptación, basado en los métodos de la estadística matemática, se desarrollan planes de control de calidad analizando muestras de lotes de productos. La dificultad radica en poder construir correctamente modelos probabilísticos y estadísticos Toma de decisiones, sobre la base de lo cual puede responder a las preguntas anteriores. En estadística matemática, se han desarrollado modelos probabilísticos y métodos para probar hipótesis para esto, en particular, hipótesis de que la proporción de unidades de producción defectuosas es igual a un cierto número, por ejemplo (recuerde las palabras de Strukov de la novela de AN Tolstoi ).

Tareas de evaluación... En una serie de situaciones de gestión, producción, económicas y económicas nacionales, surgen problemas de un tipo diferente: el problema de evaluar las características y parámetros de las distribuciones de probabilidad.

Veamos un ejemplo. Suponga que se recibió un lote de N bombillas para su inspección. Se seleccionó al azar una muestra de n bombillas de este lote. Surgen una serie de preguntas naturales. ¿Cómo, basándose en los resultados de las pruebas de elementos de muestra, determinar la vida útil media de las lámparas eléctricas y con qué precisión se puede estimar esta característica? ¿Cómo cambia la precisión si toma una muestra más grande? ¿En qué número de horas se puede garantizar que al menos el 90% de las bombillas duren más de una hora?

Supongamos que al probar una muestra con un volumen de lámparas eléctricas, las lámparas eléctricas resultaron estar defectuosas. Entonces surgen las siguientes preguntas. ¿Qué límites se pueden especificar para el número de bombillas defectuosas en un lote, para el nivel de defectos, etc.?

O, en un análisis estadístico de la precisión y estabilidad de los procesos tecnológicos, como indicadores de calidad como promedio parámetro monitoreado y el grado de propagación en el proceso considerado. Según la teoría de la probabilidad, es aconsejable utilizar su expectativa matemática como el valor medio de una variable aleatoria y la varianza, desviación estándar o el coeficiente de variación... Esto plantea la pregunta: ¿cómo evaluar estas características estadísticas a partir de datos de muestra y con qué precisión se puede hacer esto? Hay muchos ejemplos similares. Aquí fue importante mostrar cómo la teoría de la probabilidad y la estadística matemática se pueden utilizar en la gestión de la producción a la hora de tomar decisiones en el campo de la gestión estadística de la calidad del producto.

¿Qué es la "estadística matemática"?? Se entiende por estadística matemática "una sección de las matemáticas dedicada a los métodos matemáticos para recopilar, sistematizar, procesar e interpretar datos estadísticos, así como utilizarlos para conclusiones científicas o prácticas. Las reglas y procedimientos de la estadística matemática se basan en la teoría de la probabilidad , que permite evaluar la precisión y fiabilidad de las conclusiones obtenidas en cada problema a partir del material estadístico disponible "[[2.2], pág. 326]. En este caso, los datos estadísticos se denominan información sobre el número de objetos de algún conjunto más o menos extenso que tienen determinadas características.

Según el tipo de problemas que se resuelvan, la estadística matemática se suele dividir en tres secciones: descripción de datos, estimación y prueba de hipótesis.

Por tipo de datos estadísticos procesados, la estadística matemática se divide en cuatro áreas:

  • estadísticas unidimensionales (estadísticas de variables aleatorias), en las que el resultado de la observación se describe mediante un número real;
  • análisis estadístico multivariado, donde el resultado de la observación sobre un objeto se describe mediante varios números (vector);
  • estadísticas de procesos aleatorios y series de tiempo, donde el resultado de la observación es una función;
  • Estadística de objetos de naturaleza no numérica, en los que el resultado de la observación es de naturaleza no numérica, por ejemplo, es un conjunto (figura geométrica), un ordenamiento, o se obtiene como resultado de una medición sobre una base cualitativa. .

Históricamente, algunas áreas de la estadística de objetos de naturaleza no numérica (en particular, los problemas de estimación de la proporción del matrimonio y la prueba de hipótesis al respecto) y las estadísticas unidimensionales fueron las primeras en aparecer. El aparato matemático es más simple para ellos, por lo tanto, con su ejemplo, generalmente se demuestran las ideas básicas de la estadística matemática.

Solo aquellos métodos de procesamiento de datos, es decir Las estadísticas matemáticas son evidencia basada en modelos probabilísticos de fenómenos y procesos reales relevantes. Hablamos de modelos de comportamiento del consumidor, ocurrencia de riesgos, funcionamiento de equipos tecnológicos, obtención de resultados experimentales, evolución de la enfermedad, etc. Un modelo probabilístico de un fenómeno real debe considerarse construido si las cantidades consideradas y las relaciones entre ellas se expresan en términos de la teoría de la probabilidad. Cumplimiento del modelo probabilístico de realidad, es decir su idoneidad se verifica, en particular, con la ayuda de métodos estadísticos para probar hipótesis.

Los métodos de procesamiento de datos improbables son exploratorios, pueden usarse solo para análisis de datos preliminares, ya que no permiten evaluar la precisión y confiabilidad de las conclusiones obtenidas sobre la base de material estadístico limitado.

Probabilístico y métodos de estadística son aplicables siempre que sea posible construir y fundamentar un modelo probabilístico de un fenómeno o proceso. Su uso es obligatorio cuando las conclusiones extraídas de una muestra de datos se transfieren a toda la población (por ejemplo, de una muestra a un lote completo de productos).

En áreas específicas de aplicación, se utilizan como probabilísticos métodos de estadística uso generalizado y específico. Por ejemplo, en la sección de gestión de la producción dedicada a los métodos estadísticos de gestión de la calidad del producto, se utilizan estadísticas matemáticas aplicadas (incluida la planificación de experimentos). Con la ayuda de sus métodos, análisis estadístico precisión y estabilidad de los procesos tecnológicos y evaluación de la calidad estadística. Los métodos específicos incluyen métodos de control estadístico de aceptación de la calidad del producto, regulación estadística de procesos tecnológicos, evaluación y control de confiabilidad, etc.

Las disciplinas probabilísticas y estadísticas aplicadas, como la teoría de la confiabilidad y la teoría de las colas, se utilizan ampliamente. El contenido del primero de ellos está claro por el nombre, el segundo está estudiando sistemas como una central telefónica, que recibe llamadas en momentos aleatorios: los requisitos de los suscriptores que marcan números en sus teléfonos. La duración de la atención de estos reclamos, es decir la duración de las conversaciones también se modela con variables aleatorias. El miembro correspondiente de la Academia de Ciencias de la URSS A.Ya hizo una gran contribución al desarrollo de estas disciplinas. Khinchin (1894-1959), académico de la Academia de Ciencias de la República Socialista Soviética de Ucrania B.V. Gnedenko (1912-1995) y otros científicos nacionales.

Brevemente sobre la historia de la estadística matemática... La estadística matemática como ciencia comienza con los trabajos del famoso matemático alemán Karl Friedrich Gauss (1777-1855), quien, basándose en la teoría de la probabilidad, investigó y fundamentó método de mínimos cuadrados, creado por él en 1795 y utilizado para procesar datos astronómicos (con el fin de aclarar la órbita del planeta menor Ceres). Su nombre a menudo se llama una de las distribuciones de probabilidad más populares: normal, y en la teoría de procesos aleatorios el principal objeto de estudio son los procesos gaussianos.

A finales del siglo XIX. - principios del siglo XX. Los investigadores ingleses, principalmente K. Pearson (1857-1936) y R.A. Fisher (1890-1962). En particular, Pearson desarrolló la prueba de chi-cuadrado para hipótesis estadísticas, y Fisher desarrolló Análisis de variación, teoría de planificación de experimentos, método de estimación de parámetros de máxima verosimilitud.

En los años 30 del siglo XX. El polaco Jerzy Neumann (1894-1977) y el inglés E. Pearson desarrollaron una teoría general para probar hipótesis estadísticas, y los matemáticos soviéticos, el académico A.N. Kolmogorov (1903-1987) y miembro correspondiente de la Academia de Ciencias de la URSS N.V. Smirnov (1900-1966) sentó las bases de las estadísticas no paramétricas. En los años cuarenta del siglo XX. El rumano A. Wald (1902-1950) construyó una teoría del análisis estadístico secuencial.

La estadística matemática se está desarrollando rápidamente en la actualidad. Entonces, durante los últimos 40 años, se pueden distinguir cuatro áreas de investigación fundamentalmente nuevas [[2.16]]:

  • desarrollo e implementación de métodos matemáticos para planificar experimentos;
  • desarrollo de estadísticas de objetos de naturaleza no numérica como una dirección independiente en la estadística matemática aplicada;
  • desarrollo de métodos estadísticos que sean estables frente a pequeñas desviaciones del modelo probabilístico utilizado;
  • desarrollo generalizado del trabajo sobre la creación de paquetes de programas informáticos destinados al análisis estadístico de datos.

Métodos probabilístico-estadísticos y optimización... La idea de optimización impregna la estadística matemática aplicada moderna y otras métodos de estadística... A saber, métodos de planificación de experimentos, control estadístico de aceptación, regulación estadística de procesos tecnológicos, etc. Por otro lado, enunciados de optimización en teoría Toma de decisiones, por ejemplo, la teoría aplicada de la optimización de la calidad del producto y los requisitos de las normas, prevén el uso generalizado de métodos probabilísticos y estadísticos, principalmente estadística matemática aplicada.

En la gestión de la producción, en particular al optimizar la calidad del producto y los requisitos estándar, es especialmente importante aplicar métodos de estadística en la etapa inicial del ciclo de vida del producto, es decir en la etapa de preparación de la investigación de desarrollos de diseño experimental (desarrollo de requisitos prometedores para productos, diseño preliminar, especificaciones técnicas para el desarrollo de diseño experimental). Esto se debe a la limitada información disponible en la etapa inicial del ciclo de vida del producto y la necesidad de predecir las capacidades técnicas y la situación económica para el futuro. Métodos de estadística debe usarse en todas las etapas de la resolución del problema de optimización: al escalar variables, desarrollar modelos matemáticos para el funcionamiento de productos y sistemas, realizar experimentos técnicos y económicos, etc.

Todas las áreas de la estadística se utilizan en problemas de optimización, incluida la optimización de la calidad del producto y los requisitos de las normas. A saber: estadísticas de variables aleatorias, multidimensionales análisis estadístico, estadísticas de procesos aleatorios y series de tiempo, estadísticas de objetos de naturaleza no numérica. Es aconsejable realizar la elección de un método estadístico para el análisis de datos específicos de acuerdo con las recomendaciones [

Parte 1. Fundamentos de la estadística aplicada

1.2.3. La esencia de los métodos probabilísticos y estadísticos de toma de decisiones

¿Cómo se utilizan los enfoques, las ideas y los resultados de la teoría de la probabilidad y la estadística matemática en la toma de decisiones?

La base es un modelo probabilístico de un fenómeno o proceso real, es decir, un modelo matemático en el que las relaciones objetivas se expresan en términos de teoría de la probabilidad. Las probabilidades se utilizan principalmente para describir las incertidumbres que deben tenerse en cuenta al tomar decisiones. Esto se refiere tanto a las oportunidades no deseadas (riesgos) como a las atractivas ("suerte afortunada"). A veces, la aleatoriedad se introduce deliberadamente en una situación, por ejemplo, mediante el sorteo, la selección aleatoria de unidades para controlar, la realización de loterías o encuestas de consumidores.

La teoría de la probabilidad permite calcular otras probabilidades que son de interés para el investigador. Por ejemplo, en función de la probabilidad de que se caiga un escudo de armas, puede calcular la probabilidad de que se caigan al menos 3 escudos de armas con 10 lanzamientos de monedas. Dicho cálculo se basa en un modelo probabilístico, según el cual los lanzamientos de monedas se describen mediante un esquema de pruebas independientes, además, el escudo de armas y la celosía son igualmente posibles, por lo que la probabilidad de cada uno de estos eventos es ½. Un modelo más complejo es aquel en el que, en lugar de lanzar una moneda, se considera verificar la calidad de una unidad de producción. El modelo probabilístico correspondiente se basa en el supuesto de que el control de calidad de varios artículos de producción se describe mediante un esquema de prueba independiente. A diferencia del modelo de lanzamiento de moneda, se debe introducir un nuevo parámetro: la probabilidad R que el artículo está defectuoso. El modelo se describirá en su totalidad si se asume que todos los artículos tienen la misma probabilidad de estar defectuosos. Si la última suposición es incorrecta, aumenta el número de parámetros del modelo. Por ejemplo, puede asumir que cada artículo tiene su propia probabilidad de ser defectuoso.

Analicemos un modelo de control de calidad con una probabilidad de defecto común para todas las unidades de producto. R... Para "alcanzar el número" al analizar el modelo, es necesario reemplazar R por algún significado específico. Para ello, es necesario ir más allá del modelo probabilístico y recurrir a los datos obtenidos durante el control de calidad. La estadística matemática resuelve el problema inverso en relación con la teoría de la probabilidad. Su propósito es sacar conclusiones sobre las probabilidades que subyacen al modelo probabilístico en base a los resultados de las observaciones (medidas, análisis, pruebas, experimentos). Por ejemplo, basándose en la frecuencia de aparición de productos defectuosos durante la inspección, se pueden sacar conclusiones sobre la probabilidad de defectos (ver el teorema de Bernoulli más arriba). Sobre la base de la desigualdad de Chebyshev, se extrajeron conclusiones sobre la correspondencia de la frecuencia de aparición de productos defectuosos con la hipótesis de que la probabilidad de defectos adquiere un cierto valor.

Así, la aplicación de la estadística matemática se basa en un modelo probabilístico de un fenómeno o proceso. Se utilizan dos series paralelas de conceptos: relacionados con la teoría (modelo probabilístico) y relacionados con la práctica (muestra de resultados de observación). Por ejemplo, la probabilidad teórica corresponde a la frecuencia encontrada en la muestra. La expectativa matemática (serie teórica) corresponde a la media aritmética muestral (serie práctica). Normalmente, las características de la muestra son estimaciones teóricas. Al mismo tiempo, los valores relacionados con las series teóricas “están en la cabeza de los investigadores”, se refieren al mundo de las ideas (según el antiguo filósofo griego Platón), y son inaccesibles para la medición directa. Los investigadores solo tienen datos muestrales, con la ayuda de los cuales intentan establecer las propiedades del modelo probabilístico teórico que les interesa.

¿Por qué se necesita un modelo probabilístico? El hecho es que solo con su ayuda es posible transferir las propiedades establecidas por los resultados del análisis de una muestra en particular a otras muestras, así como a toda la llamada población general. El término "población general" se utiliza cuando se hace referencia a una población grande pero finita de unidades de interés. Por ejemplo, sobre el total de todos los residentes de Rusia o el total de todos los consumidores de café instantáneo en Moscú. El objetivo de las encuestas de marketing o de opinión es transferir declaraciones de una muestra de cientos o miles de personas a poblaciones de varios millones de personas. En el control de calidad, un lote de productos actúa como población general.

Para transferir conclusiones de una muestra a una población más grande, se requiere uno u otro supuesto sobre la relación de las características de la muestra con las características de esta población más grande. Estos supuestos se basan en un modelo probabilístico apropiado.

Por supuesto, es posible procesar datos de muestra sin utilizar un modelo probabilístico particular. Por ejemplo, puede calcular la media aritmética muestral, calcular la frecuencia del cumplimiento de determinadas condiciones, etc. Sin embargo, los resultados del cálculo se relacionarán solo con una muestra específica, la transferencia de las conclusiones obtenidas con su ayuda a cualquier otra población es incorrecta. Esta actividad a veces se denomina "minería de datos". En comparación con los métodos estadísticos probabilísticos, el análisis de datos tiene un valor cognitivo limitado.

Entonces, el uso de modelos probabilísticos basados ​​en la evaluación y prueba de hipótesis utilizando características muestrales es la esencia de los métodos de toma de decisiones probabilístico-estadísticos.

Destacamos que la lógica de utilizar características muestrales para la toma de decisiones basadas en modelos teóricos implica el uso simultáneo de dos series paralelas de conceptos, una de las cuales corresponde a modelos probabilísticos y la segunda a datos muestrales. Desafortunadamente, en una serie de fuentes literarias, generalmente desactualizadas o escritas con el espíritu de una receta, no se hace ninguna distinción entre características selectivas y teóricas, lo que lleva a los lectores a perplejidad y errores en el uso práctico de métodos estadísticos.

Anterior

Los fenómenos de la vida, como todos los fenómenos del mundo material en general, tienen dos lados indisolublemente ligados: cualitativo, percibido directamente por los sentidos, y cuantitativo, expresado en números con la ayuda del conteo y la medida.

En el estudio de diversos fenómenos naturales, se utilizan simultáneamente indicadores tanto cualitativos como cuantitativos. No hay duda de que sólo en la unidad de los aspectos cualitativos y cuantitativos se revela más plenamente la esencia de los fenómenos estudiados. Sin embargo, en realidad, debe utilizar uno u otros indicadores.

No hay duda de que los métodos cuantitativos, como más objetivos y precisos, tienen una ventaja sobre las características cualitativas de los objetos.

Los resultados de la medición en sí mismos, aunque tienen un cierto valor, son todavía insuficientes para sacar las conclusiones necesarias de ellos. Los datos digitales recopilados durante las pruebas masivas son solo material fáctico en bruto que necesita un procesamiento matemático adecuado. Sin procesamiento - ordenamiento y sistematización de datos digitales, es imposible extraer la información contenida en ellos, evaluar la confiabilidad de los indicadores resumen individuales, para asegurarse de que las diferencias observadas entre ellos sean confiables. Este trabajo requiere de los especialistas ciertos conocimientos, la capacidad de generalizar y analizar correctamente los datos recogidos en la experiencia. El sistema de este conocimiento constituye el contenido de la estadística, una ciencia que se ocupa principalmente del análisis de los resultados de la investigación en los campos teórico y aplicado de la ciencia.

Debe tenerse en cuenta que la estadística matemática y la teoría de la probabilidad son ciencias puramente teóricas y abstractas; estudian los agregados estadísticos sin tener en cuenta las características específicas de sus elementos constituyentes. Los métodos de estadística matemática y la teoría de la probabilidad subyacente son aplicables a una amplia variedad de campos del conocimiento, incluidas las humanidades.

El estudio de los fenómenos no se lleva a cabo sobre observaciones individuales, que pueden resultar aleatorias, atípicas, que expresan de manera incompleta la esencia de un fenómeno dado, sino sobre un conjunto de observaciones homogéneas, que brindan información más completa sobre el objeto en estudio. Un cierto conjunto de sujetos relativamente homogéneos, combinados según uno u otro criterio para el estudio conjunto, se denomina estadístico.

agregar. El conjunto combina una serie de observaciones o registros homogéneos.

Los elementos que componen una colección se denominan sus miembros u opciones. ... Variantes Son observaciones individuales o valores numéricos de una característica. Entonces, si denotamos una característica por X (grande), entonces sus valores u opciones se denotarán por x (pequeño), es decir, x 1, x 2, etc.

El número total de opciones que componen una población determinada se denomina volumen y se indica con la letra n (pequeña).

Cuando se examina el conjunto completo de objetos homogéneos en su conjunto, se denomina conjunto general, general. Un ejemplo de este tipo de descripción continua de un conjunto pueden ser los censos nacionales de población, un registro estadístico general de animales en el país. Por supuesto, una encuesta completa de la población en general proporciona la información más completa sobre su estado y propiedades. Por lo tanto, es natural que los investigadores se esfuercen por reunir tantas observaciones como sea posible.

Sin embargo, en realidad, rara vez es necesario recurrir a la encuesta a todos los miembros de la población en general. En primer lugar, porque este trabajo requiere mucho tiempo y trabajo y, en segundo lugar, no siempre es factible por diversas razones y circunstancias. Entonces, en lugar de una encuesta completa de la población general, una parte de ella, que se llama población de muestra, o muestra, generalmente se somete a estudio. Es el modelo por el que se juzga a toda la población en su conjunto. Por ejemplo, para conocer el crecimiento promedio de la población de reclutas de una determinada región o distrito, no es necesario medir todos los reclutas que viven en un área determinada, pero basta con medir una parte de ellos.

1. La muestra debe ser completamente representativa o típica; de modo que incluya principalmente aquellas opciones que reflejen más plenamente a la población en general. Por lo tanto, para comenzar a procesar los datos de la muestra, se revisan cuidadosamente y se eliminan las variantes claramente atípicas. Por ejemplo, al analizar el costo de los productos fabricados por una empresa, se debe excluir el costo en aquellos períodos en los que la empresa no contó con todos los componentes o materias primas.

2. La muestra debe ser objetiva. Al formar una muestra, no se debe actuar de manera arbitraria, incluir solo aquellas opciones que parezcan típicas en su composición, y rechazar todas las demás. Se realiza una muestra de buena calidad sin opiniones preconcebidas, por el método de sorteo o por sorteo, cuando ninguna de las variantes de la población general tiene ventaja sobre las demás - ser incluida o no en la muestra. En otras palabras, la muestra debe seleccionarse al azar sin afectar su composición.

3. La muestra debe ser cualitativamente uniforme. Es imposible incluir en la misma muestra datos obtenidos en diferentes condiciones, por ejemplo, el costo de los productos obtenidos con un número diferente de empleados.

6.2. Agrupación de resultados de observación

Por lo general, los resultados de los experimentos y las observaciones se ingresan en forma de números en tarjetas de registro o en un diario y, a veces, solo en hojas de papel: se obtiene una declaración o registro. Dichos documentos iniciales, por regla general, contienen información no sobre uno, sino sobre varios signos en los que se hicieron las observaciones. Estos documentos sirven como fuente principal de formación de la muestra. Por lo general, esto se hace así: en una hoja de papel separada del documento principal, es decir, índice de tarjeta, diario o declaración, se escriben los valores numéricos del atributo mediante el cual se forma el agregado. Las opciones en tal combinación generalmente se presentan en forma de una masa desordenada de números. Por lo tanto, el primer paso para procesar dicho material es ordenarlo, sistematizarlo, agrupando la opción en tablas o filas estadísticas.

Las tablas estadísticas son una de las formas más comunes de agrupar datos de muestra. Son ilustrativos, mostrando algunos resultados generales, la posición de elementos individuales en la serie general de observaciones.

Otra forma de agrupación primaria de datos muestrales es el método de clasificación, es decir, la ubicación de la variante en un orden determinado, de acuerdo con los valores crecientes o decrecientes del atributo. Como resultado, se obtiene una serie denominada clasificada, que muestra en qué límites y cómo varía esta característica. Por ejemplo, hay una muestra de la siguiente composición:

5,2,1,5,7,9,3,5,4,10,4,5,7,3,5, 9,4,12,7,7

Se puede ver que la característica varía de 1 a 12 de algunas unidades. Organizamos las opciones en orden ascendente:

1,2,3,3,4,4,4,5,5,5,5,7,7,7,7,9,9,10,12.,

Como resultado, se obtuvo una serie clasificada de valores del atributo variable.

Obviamente, el método de clasificación que se muestra aquí es aplicable solo a muestras pequeñas. Con un gran número de observaciones, la clasificación se vuelve difícil, porque la fila es tan larga que pierde su significado.

Con un gran número de observaciones, se acostumbra clasificar la muestra en forma de serie doble, es decir, indicando la frecuencia o frecuencia de variantes individuales de la serie clasificada. Esta serie doble de valores clasificados de una característica se denomina serie de variación o serie de distribución. El ejemplo más simple de una serie de variaciones pueden ser los datos clasificados anteriormente, si están organizados de la siguiente manera:

Valores característicos

(opciones) 1 2 3 4 5 7 9 10 12

repetibilidad

(opción) frecuencias 1 1 2 3 5 4 2 1 1

La serie de variación muestra la frecuencia con la que se encuentran variantes individuales en una población determinada, cómo se distribuyen, lo cual es de gran importancia, lo que nos permite juzgar los patrones de variación y el rango de variación de las características cuantitativas. La construcción de series variacionales facilita el cálculo de los indicadores totales - la media aritmética y la varianza o dispersión de la variante sobre su valor medio - indicadores que caracterizan a cualquier población estadística.

Las series variacionales son de dos tipos: discontinuas y continuas. Se obtiene una serie de variación discontinua a partir de la distribución de cantidades discretas, que incluyen características de conteo. Si la función varía continuamente, es decir, puede tomar cualquier valor en el rango de la variante mínima a la máxima de la población, luego esta última se distribuye en una serie de variación continua.

Para construir una serie variacional de una característica que varía discretamente, es suficiente organizar todo el conjunto de observaciones en forma de una serie clasificada, indicando las frecuencias de las variantes individuales. Como ejemplo, proporcionamos datos que muestran la distribución de tamaño de 267 partes (tabla 5.4)

Cuadro 6.1. Distribución de piezas por tamaño.

Para construir una serie variacional de características que varían continuamente, debe dividir la variación completa desde la variante mínima a la máxima en grupos o intervalos separados (de-a), llamados clases, y luego distribuir todas las variantes de la población entre estas clases. . Como resultado, se obtendrá una serie de doble variación, en la que las frecuencias ya no se refieren a variantes específicas individuales, sino a todo el intervalo, es decir. resulta ser frecuencias no de una opción, sino de clases.

La división de la variación total en clases se realiza en la escala del intervalo de clase, que debe ser la misma para todas las clases de la serie de variación. El tamaño del intervalo de clase se indica con i (de la palabra intervalum - intervalo, distancia); está determinado por la siguiente fórmula

, (6.1)

donde: i - intervalo de clase, que se toma como un número entero;

- opciones de muestra máxima y mínima;

lg.n es el logaritmo del número de clases en las que se divide la muestra.

El número de clases se establece arbitrariamente, pero teniendo en cuenta el hecho de que el número de clases depende en cierta medida del tamaño de la muestra: cuanto mayor sea el tamaño de la muestra, más clases deberían ser, y viceversa, con tamaños de muestra más pequeños, una se debe tomar un número menor de clases. La experiencia ha demostrado que incluso en muestras pequeñas, cuando es necesario agrupar variantes en forma de una serie de variaciones, no se deben establecer menos de 5-6 clases. Si hay una opción de 100-150, el número de clases se puede aumentar a 12-15. Si la totalidad consta de 200-300 variantes, entonces se divide en 15-18 clases, etc. Por supuesto, estas recomendaciones son muy condicionales y no pueden tomarse como una regla establecida.

Al dividir en clases, en cada caso específico, debe tener en cuenta una serie de circunstancias diferentes, asegurándose de que el procesamiento del material estadístico proporcione los resultados más precisos.

Una vez que se establece el intervalo de clases y la muestra se divide en clases, la variante se publica por clase y se determina el número de variaciones (frecuencias) para cada clase. El resultado es una serie de variaciones en la que las frecuencias no pertenecen a variantes individuales, sino a clases específicas. La suma de todas las frecuencias de la serie de variación debe ser igual al tamaño de la muestra, es decir

(6.2)

dónde:
-signo de sumatoria;

p es la frecuencia.

n es el tamaño de la muestra.

Si no existe tal igualdad, entonces se cometió un error al publicar la variante por clase, que debe eliminarse.

Por lo general, para publicar una opción por clase, se elabora una tabla auxiliar, en la que hay cuatro columnas: 1) clases para este atributo (desde - hasta); 2) - valor medio de las clases, 3) opción de publicación por clase, 4) frecuencia de las clases (ver tabla 6.2.)

Publicar una opción por clase requiere mucha atención. No debe permitirse que la misma variante se marque dos veces o que las mismas variantes pertenezcan a diferentes clases. Para evitar errores en la distribución de una variante por clases, se recomienda no buscar las mismas variantes en el agregado, sino distribuirlas por clases, que no es lo mismo. Ignorar esta regla, que ocurre en el trabajo de investigadores sin experiencia, lleva mucho tiempo al publicar una opción y, lo más importante, conduce a errores.

Cuadro 6.2. Opción de publicación por clase

Límites de la clase

Valores medios de clases (x)

Frecuencias de clase (p),%

absoluto

relativo

Habiendo terminado de publicar la variación y contando su número para cada clase, obtenemos una serie de variación continua. Debe convertirse en una serie de variación discontinua. Para ello, como ya se señaló, tomamos las medias sumas de los valores extremos de las clases. Entonces, por ejemplo, se obtiene una mediana de primera clase de 8.8 de la siguiente manera:

(8,6+9,0):2=8,8.

El segundo valor (9.3) de este gráfico se calcula de manera similar:

(9.01 + 9.59): 2 = 9.3, etc.

Como resultado, se obtiene una serie de variación discontinua, que muestra la distribución según el rasgo estudiado (Cuadro 6.3.)

Cuadro 6.3. Serie variacional

La agrupación de datos muestrales en forma de serie de variación tiene un doble propósito: en primer lugar, como operación auxiliar, es necesaria para el cálculo de los indicadores totales, y en segundo lugar, las series de distribución muestran la regularidad de la variación de características, lo cual es muy importante. importante. Para expresar este patrón más claramente, se acostumbra representar gráficamente la serie de variación en forma de histograma (Figura 6.1.)


Figura 6.1 Distribución de empresas por número de empleados

gráfico de barras representa la distribución de la variante con variación continua de la característica. Los rectángulos corresponden a las clases y sus alturas corresponden al número de opciones incluidas en cada clase. Si desde los puntos medios de los vértices de los rectángulos del histograma bajamos las perpendiculares al eje de abscisas, y luego conectamos estos puntos entre sí, obtenemos una gráfica de variación continua, llamada polígono o densidad de distribución.

Al realizar una investigación psicológica y pedagógica, se otorga un papel importante a los métodos matemáticos para modelar procesos y procesar datos experimentales. Estos métodos deberían incluir, en primer lugar, los denominados métodos de investigación probabilístico-estadística. Esto se debe al hecho de que el comportamiento tanto de una persona individual en el proceso de su actividad como de una persona en un equipo está significativamente influenciado por muchos factores aleatorios. La aleatoriedad no permite describir fenómenos en el marco de modelos deterministas, ya que se manifiesta como una regularidad insuficiente en los fenómenos de masas y, por lo tanto, no permite predecir de manera confiable la ocurrencia de ciertos eventos. Sin embargo, al estudiar tales fenómenos, se revelan ciertos patrones. La irregularidad inherente a los eventos aleatorios, con un gran número de pruebas, generalmente se compensa con la aparición de una regularidad estadística, estabilización de las frecuencias de ocurrencia de eventos aleatorios. En consecuencia, estos eventos aleatorios tienen cierta probabilidad. Hay dos métodos probabilísticos y estadísticos fundamentalmente diferentes de investigación psicológica y pedagógica: clásico y no clásico. Realicemos un análisis comparativo de estos métodos.

El método estadístico probabilístico clásico. El método de investigación probabilístico-estadístico clásico se basa en la teoría de la probabilidad y la estadística matemática. Este método se utiliza en el estudio de fenómenos de masas de naturaleza aleatoria, comprende varias etapas, las principales de las cuales son las siguientes.

1. Construcción de un modelo probabilístico de realidad a partir del análisis de datos estadísticos (determinación de la ley de distribución de una variable aleatoria). Naturalmente, cuanto mayor es el volumen de material estadístico, más claramente se expresan las regularidades de los fenómenos aleatorios de masas. Los datos de muestra obtenidos durante el experimento son siempre limitados y, estrictamente hablando, son de naturaleza aleatoria. En este sentido, se asigna un papel importante a la generalización de los patrones obtenidos en la muestra, y su extensión a toda la población general de objetos. Para resolver este problema se acepta cierta hipótesis sobre la naturaleza de la regularidad estadística, que se manifiesta en el fenómeno en estudio, por ejemplo, la hipótesis de que el fenómeno en estudio obedece a la ley de distribución normal. Tal hipótesis se denomina hipótesis nula, la cual puede resultar errónea, por lo que junto con la hipótesis nula también se propone una hipótesis alternativa o competitiva. La verificación de cómo los datos experimentales obtenidos corresponden a una determinada hipótesis estadística se realiza mediante las denominadas pruebas estadísticas no paramétricas o pruebas de bondad de ajuste. En la actualidad, se utilizan ampliamente los criterios de Kolmogorov, Smirnov, omega-cuadrado y otros criterios de bondad de ajuste. La idea principal detrás de estos criterios es medir la distancia entre la función de distribución empírica y la función de distribución teórica completamente conocida. La metodología para probar una hipótesis estadística se desarrolla y describe rigurosamente en un gran número de trabajos sobre estadística matemática.

2. Realizar los cálculos necesarios por medios matemáticos en el marco de un modelo probabilístico. De acuerdo con el modelo probabilístico establecido del fenómeno, se calculan parámetros característicos, por ejemplo, como expectativa matemática o valor medio, varianza, desviación estándar, moda, mediana, índice de asimetría, etc.

3. Interpretación de conclusiones probabilísticas y estadísticas en relación con la situación real.

Actualmente, el método estadístico probabilístico clásico está bien desarrollado y se utiliza ampliamente en la investigación en diversos campos de las ciencias naturales, técnicas y sociales. Una descripción detallada de la esencia de este método y su aplicación a la resolución de problemas específicos se puede encontrar en una gran cantidad de fuentes literarias, por ejemplo, en.

Método estadístico probabilístico no clásico. El método de investigación probables-estadístico no clásico difiere del clásico en que se aplica no solo a eventos en masa, sino también a eventos individuales que son fundamentalmente aleatorios por naturaleza. Este método se puede utilizar eficazmente para analizar el comportamiento de un individuo en el proceso de realización de una actividad en particular, por ejemplo, en el proceso de asimilación de conocimientos por parte de los estudiantes. Consideraremos las características del método estadístico probabilístico no clásico de investigación psicológica y pedagógica utilizando el ejemplo del comportamiento de los estudiantes en el proceso de asimilación de conocimientos.

En el trabajo se propuso por primera vez un modelo estadístico-probabilístico de la conducta del alumno en el proceso de asimilación de conocimientos. Se ha realizado un mayor desarrollo de este modelo en el trabajo. El aprendizaje como un tipo de actividad, cuya finalidad es la adquisición de conocimientos, habilidades y destrezas por parte de una persona, depende del nivel de desarrollo de la conciencia del alumno. La estructura de la conciencia incluye procesos cognitivos como la sensación, la percepción, la memoria, el pensamiento, la imaginación. El análisis de estos procesos muestra que se caracterizan por elementos de aleatoriedad, debido a la naturaleza aleatoria de los estados mentales y somáticos del individuo, así como ruidos fisiológicos, psicológicos e informativos durante el trabajo del cerebro. Este último llevó, al describir los procesos de pensamiento, a abandonar el uso del modelo de un sistema dinámico determinista en favor de un modelo de un sistema dinámico aleatorio. Esto significa que el determinismo de la conciencia se realiza a través del azar. Por lo tanto, podemos concluir que el conocimiento humano, que en realidad es producto de la conciencia, también tiene un carácter aleatorio y, por lo tanto, para describir el comportamiento de cada estudiante individual en el proceso de asimilación del conocimiento, se puede utilizar un método estadístico probabilístico. .

De acuerdo con este método, un estudiante es identificado por una función de distribución (densidad de probabilidad), que determina la probabilidad de encontrarlo en una unidad de área del espacio de información. En el proceso de aprendizaje, la función de distribución con la que se identifica al alumno, mientras evoluciona, se mueve en el espacio de la información. Cada estudiante tiene propiedades individuales y se permite la localización independiente (espacial y cinemática) de los individuos entre sí.

Con base en la ley de conservación de la probabilidad, se escribe un sistema de ecuaciones diferenciales, las cuales son ecuaciones de continuidad, las cuales relacionan el cambio en la densidad de probabilidad por unidad de tiempo en el espacio de fase (el espacio de coordenadas, velocidades y aceleraciones de varios órdenes ) con la divergencia del flujo de densidad de probabilidad en el espacio de fase considerado. En el análisis de soluciones analíticas de una serie de ecuaciones de continuidad (funciones de distribución), caracterizando el comportamiento de los estudiantes individuales en el proceso de aprendizaje.

Al realizar estudios experimentales de la conducta de los estudiantes en el proceso de asimilación de conocimientos, se utiliza escalado probabilístico-estadístico, de acuerdo con lo cual la escala de medición es un sistema ordenado. , donde A es un conjunto bien ordenado de objetos (individuos) con las características que nos interesan (sistema empírico con relaciones); Ly - espacio funcional (espacio de funciones de distribución) con relaciones; F es la operación de un mapeo homomórfico de A al subsistema Ly; G - grupo de transformaciones admisibles; f es la operación de mapear funciones de distribución del subsistema Ly a sistemas numéricos con razones de espacio n-dimensional M. El escalado probabilístico-estadístico se usa para encontrar y procesar funciones de distribución experimentales e incluye tres etapas.

1. Encontrar funciones de distribución experimentales basadas en los resultados de un evento de control, por ejemplo, un examen. Una vista típica de las funciones de distribución individuales encontradas usando una escala de veinte puntos se muestra en la Fig. 1. El método para encontrar tales funciones se describe en.

2. Asignación de funciones de distribución a un espacio numérico. Para ello, se calculan los momentos de las funciones de distribución individuales. En la práctica, por regla general, basta con limitarnos a determinar los momentos de primer orden (expectativa matemática), segundo orden (varianza) y tercer orden, que caracteriza la asimetría de la función de distribución.

3. Clasificar a los estudiantes según el nivel de conocimiento a partir de una comparación de los momentos de diferentes órdenes de sus funciones de distribución individuales.

Arroz. 1. Forma típica de funciones de distribución individual de los estudiantes que recibieron diferentes calificaciones en el examen de física general: 1 - la calificación tradicional "2"; 2 - calificación tradicional "3"; 3 - calificación tradicional "4"; 4 - calificación tradicional "5"

Las funciones de distribución experimentales para el flujo de estudiantes se encontraron sobre la base de la aditividad de las funciones de distribución individuales en (Fig. 2).


Arroz. 2. Evolución de la función de distribución completa del flujo de estudiantes, aproximada por líneas suaves: 1 - después del primer año; 2 - después del segundo curso; 3 - después del tercer curso; 4 - después del cuarto curso; 5 - después del quinto curso

Análisis de los datos presentados en la Fig. 2 muestra que a medida que uno se mueve en el espacio de información, las funciones de distribución se extienden. Esto se debe al hecho de que las expectativas matemáticas de las funciones de distribución de los individuos se mueven a diferentes velocidades y las funciones mismas se extienden debido a la dispersión. Se puede realizar un análisis más detallado de estas funciones de distribución en el marco del método estadístico probabilístico clásico.

La discusión de los resultados. El análisis de los métodos estadísticos y probabilísticos clásicos y no clásicos de investigación psicológica y pedagógica mostró que existe una diferencia significativa entre ellos. Como se puede entender de lo anterior, es que el método clásico es aplicable solo al análisis de eventos masivos, y el método no clásico es aplicable tanto al análisis de eventos masivos como individuales. En este sentido, el método clásico se puede llamar convencionalmente el método estadístico probabilístico de masas (MVSM), y el método no clásico, el método estadístico probabilístico individual (ISM). En 4] se muestra que ninguno de los métodos clásicos de evaluación del conocimiento de los estudiantes en el marco del modelo probabilístico-estadístico del individuo puede aplicarse para estos fines.

Consideremos las características distintivas de los métodos MVSM e IVSM usando el ejemplo de medir la integridad del conocimiento de los estudiantes. Para ello, realizaremos un experimento mental. Supongamos que hay un gran número de estudiantes absolutamente idénticos en características mentales y físicas, que tienen la misma prehistoria, y que, sin interactuar entre sí, participen simultáneamente en el mismo proceso cognitivo, experimentando absolutamente la misma influencia estrictamente determinista. Entonces, de acuerdo con las ideas clásicas sobre los objetos de medición, todos los estudiantes deberían haber recibido las mismas estimaciones de la completitud del conocimiento con cualquier precisión de medición dada. Sin embargo, en realidad, dada una precisión de medición suficientemente alta, las evaluaciones de la integridad de los conocimientos de los estudiantes serán diferentes. No es posible explicar tal resultado de medición en el marco del MVSM, ya que inicialmente se asume que el impacto en estudiantes absolutamente idénticos que no interactúan tiene un carácter estrictamente determinista. El método estadístico probabilístico clásico no tiene en cuenta el hecho de que el determinismo del proceso cognitivo se realiza a través de la aleatoriedad, inherente a cada individuo que conoce el mundo que lo rodea.

El IVSM tiene en cuenta el carácter aleatorio del comportamiento del alumno en el proceso de asimilación de conocimientos. El uso de un método estadístico-probabilístico individual para analizar el comportamiento del grupo idealizado de estudiantes en consideración mostraría que es imposible indicar exactamente la posición de cada estudiante en el espacio de información, solo se puede decir la probabilidad de encontrarlo en una u otra área del espacio de información. De hecho, cada alumno se identifica mediante una función de distribución individual y sus parámetros, como la expectativa matemática, la varianza, etc., son individuales para cada alumno. Esto significa que las funciones de distribución individuales estarán ubicadas en diferentes áreas del espacio de información. La razón de este comportamiento de los estudiantes radica en la naturaleza aleatoria del proceso de aprendizaje.

Sin embargo, en varios casos, los resultados de la investigación obtenidos en el marco del MVSM pueden interpretarse dentro del marco del IVSM. Suponga que el maestro usa una escala de medición de cinco puntos para evaluar el conocimiento del estudiante. En este caso, el error en la evaluación de conocimientos es de ± 0,5 puntos. Por lo tanto, cuando a un estudiante se le da una calificación, por ejemplo, 4 puntos, esto significa que su conocimiento está en el rango de 3.5 puntos a 4.5 puntos. De hecho, la posición de un individuo en el espacio de información en este caso está determinada por una función de distribución rectangular, cuyo ancho es igual al error de medición ± 0.5 puntos, y la estimación es la expectativa matemática. Este error es tan grande que no permite observar la verdadera forma de la función de distribución. Sin embargo, a pesar de una aproximación tan burda de la función de distribución, el estudio de su evolución permite obtener información importante, tanto sobre el comportamiento de un individuo individual como del estudiantado en su conjunto.

El resultado de medir la integridad del conocimiento de un estudiante está directa o indirectamente influenciado por la conciencia del maestro (metro), que también se caracteriza por la aleatoriedad. En el proceso de mediciones pedagógicas, de hecho, existe una interacción de dos sistemas dinámicos aleatorios que identifican el comportamiento de un alumno y un docente en este proceso. Se considera la interacción del subsistema de estudiantes con el subsistema de profesores y se muestra que la velocidad de movimiento de la expectativa matemática de las funciones de distribución individuales de los estudiantes en el espacio de información es proporcional a la función de influencia del profesorado y es inversamente proporcional a la función de la inercia que caracteriza la intratabilidad para cambiar la posición de la expectativa matemática en el espacio (análogo de la ley de Aristóteles en mecánica).

En la actualidad, a pesar de los importantes avances en el desarrollo de los fundamentos teóricos y prácticos de las mediciones durante la investigación psicológica y pedagógica, el problema de las mediciones en su conjunto aún está lejos de ser resuelto. Esto se debe principalmente al hecho de que todavía no hay suficiente información sobre la influencia de la conciencia en el proceso de medición. Una situación similar ha surgido al resolver el problema de las medidas en mecánica cuántica. Así, al considerar los problemas conceptuales de la teoría cuántica de las medidas, se dice que es imposible resolver algunas paradojas de las medidas en la mecánica cuántica "... difícilmente es posible sin la inclusión directa de la conciencia del observador en la descripción teórica". de la medida cuántica ". Continúa diciendo que “… la suposición de que la conciencia puede hacer probable cierto evento es consistente, incluso si, de acuerdo con las leyes de la física (mecánica cuántica), la probabilidad de este evento es pequeña. Hagamos una aclaración importante de la redacción: la conciencia de un observador dado puede hacer probable que vea este evento ".

Comparta con sus amigos o guárdelo para usted mismo:

Cargando...