Un coeficiente de correlación de 1 significa. Cómo calcular el coeficiente de correlación lineal

El análisis de regresión le permite estimar cómo una variable depende de otra y cuál es la extensión de los valores de la variable dependiente alrededor de la línea recta que determina la dependencia. Estas estimaciones y los intervalos de confianza asociados predicen el valor de la variable dependiente y determinan la precisión de esa predicción.

resultados análisis de regresión sólo se puede presentar en una forma gráfica o digital bastante compleja. Sin embargo, a menudo nos interesa no predecir el valor de una variable por el valor de otra, sino simplemente la característica de la estrechez (fuerza) de la conexión entre ellas, al mismo tiempo expresada por un número.

Esta característica se llama coeficiente de correlación, generalmente se denota con la letra g. El coeficiente de correlación es

Puede tomar valores de -1 a +1. El signo del coeficiente de correlación muestra la dirección de la conexión (hacia adelante o hacia atrás) y el valor absoluto: la estanqueidad de la conexión. Un coeficiente igual a -1 define una relación tan estrecha como uno igual a 1. En ausencia de una relación, el coeficiente de correlación es cero.

En la Fig. La figura 8.10 muestra ejemplos de dependencias y los valores correspondientes de r. Consideraremos dos coeficientes de correlación.

El coeficiente de correlación de Pearson pretende describir comunicación lineal rasgos cuantitativos; como regresión
análisis, requiere una distribución normal. Cuando hablamos simplemente de "coeficiente de correlación", casi siempre se refieren al coeficiente de correlación de Pearson, y esto es exactamente lo que haremos.

El coeficiente de correlación de rango de Spearman se puede usar cuando la relación no es lineal, y no solo para características cuantitativas, sino también para características ordinales. Es un método no paramétrico y no requiere ningún tipo de distribución en particular.

Ya hemos hablado de signos cuantitativos, cualitativos y ordinales en el cap. 5. Los rasgos cuantitativos son datos numéricos comunes como la altura, el peso y la temperatura. Los valores de un rasgo cuantitativo se pueden comparar entre sí y decir cuál de ellos es mayor, por cuántas y cuántas veces. Por ejemplo, si un marciano pesa 15 gy el otro 10, entonces el primero pesa más que el segundo y una vez y media y 5 g cuántas veces. En medicina, los signos ordinales son bastante comunes. Por ejemplo, los resultados de una prueba de Papanicolaou vaginal se evalúan de acuerdo con la siguiente escala: 1) normal, 2) displasia leve, 3) displasia moderada, 4) displasia severa, 5) cáncer in situ. Tanto los signos cuantitativos como los ordinales se pueden ordenar en este propiedad comun se fundó un gran grupo de criterios no paramétricos, incluido el coeficiente de correlación de rangos de Spearman. Nos familiarizaremos con otros criterios no paramétricos en el cap. 10.

Coeficiente de correlación de Pearson

Y, sin embargo, ¿por qué no se puede utilizar el análisis de regresión para describir la rigidez de la relación? La desviación estándar residual podría usarse como una medida de la rigidez de la relación. Sin embargo, si intercambiamos los lugares de las variables dependientes e independientes, entonces la desviación estándar residual, como otros indicadores del análisis de regresión, será diferente.

Eche un vistazo a la fig. 8.11. Se construyeron dos líneas de regresión utilizando una muestra de 10 marcianos que conocemos. En un caso, el peso es una variable dependiente, en el segundo es una variable independiente. Las líneas de regresión son marcadamente diferentes



20

Si intercambia xey, la ecuación de regresión será diferente, pero el coeficiente de correlación seguirá siendo el mismo.

son esperados. Resulta que la relación entre la altura y el peso es una, y el peso con la altura es diferente. La asimetría del análisis de regresión es lo que dificulta su uso directo para caracterizar la fuerza de la relación. El coeficiente de correlación, aunque su idea se deriva del análisis de regresión, está libre de esta desventaja. Damos la fórmula.

r Y (X - X) (Y - Y)

& ((- X) S (y - Y) 2 "

donde X e Y son los valores promedio de las variables X e Y. La expresión para r "simétricamente" - cambiando los lugares de X e Y, obtenemos el mismo valor. El coeficiente de correlación toma valores de -1 a +1. Cuanto más cercana sea la relación, mayor será el valor absoluto del coeficiente de correlación. El letrero muestra la dirección de la comunicación. Para r> 0, se habla de una correlación directa (con un aumento en una variable, la otra también aumenta), para r Tomemos el ejemplo con 10 marcianos, que ya hemos considerado desde el punto de vista del análisis de regresión. Calculemos el coeficiente de correlación. Los datos iniciales y los resultados intermedios de los cálculos se muestran en la tabla. 8.3. Tamaño de muestra n = 10, altura media

X = £ X / n = 369/10 = 36,9 y peso Y = £ Y / n = 103,8 / 10 = 10,38.

Encontramos U - X) (Y - Y) = 99,9, U - X) 2 = 224,8, £ (Y - Y) 2 = 51,9.

Sustituya los valores obtenidos en la fórmula del coeficiente de correlación:

224,8 x 51,9 "

El valor de r es cercano a 1, lo que indica una estrecha relación entre altura y peso. Para tener una mejor idea de qué coeficiente de correlación debe considerarse grande y cuál es insignificante, eche un vistazo

Cuadro 8.3. Cálculo del coeficiente de correlación
X Y X -X Y-Y (X -X) (Y-Y) (X -X) 2 (Y-Y) 2
31 7,8 -5,9 -2,6 15,3 34,8 6,8
32 8,3 -4,9 -2,1 10,3 24,0 4,4
33 7,6 -3,9 -2,8 10,9 15,2 7,8
34 9,1 -2,9 -1,3 3,8 8,4 1,7
35 9,6 -1,9 -0,8 1,5 3,6 0,6
35 9,8 -1,9 -0,6 1,1 3,6 0,4
40 11,8 3,1 1,4 4,3 9,6 2,0
41 12,1 4,1 1,7 7,0 16,8 2,9
42 14,7 5,1 4,3 22,0 26,0 18,5
46 13,0 9,1 2,6 23,7 82,8 6,8
369 103,8 0,0 0,2 99,9 224,8 51,9


los de la mesa. 8.4 - muestra los coeficientes de correlación para los ejemplos que discutimos anteriormente.

Relación entre regresión y correlación

Originalmente usamos todos los ejemplos de coeficientes de correlación (Tabla 8.4) para construir líneas de regresión. De hecho, existe una estrecha relación entre el coeficiente de correlación y los parámetros del análisis de regresión, que ahora demostraremos. Diferentes formas de presentar el coeficiente de correlación, que obtendremos al mismo tiempo, permitirán comprender mejor el significado de este indicador.

Recuerde que la ecuación de regresión está diseñada para minimizar la suma de los cuadrados de las desviaciones de la línea de regresión.


Designemos esta suma mínima de cuadrados como S (este valor se llama suma de cuadrados residual). La suma de los cuadrados de las desviaciones de los valores de la variable dependiente Y de su media Y se denotará por S ^. Entonces:

La cantidad r2 se llama coeficiente de determinación; es simplemente el cuadrado del coeficiente de correlación. El coeficiente de determinación muestra la fuerza de la conexión, pero no su dirección.

De la fórmula anterior, se puede ver que si los valores de la variable dependiente se encuentran en la línea de regresión, entonces S = 0 y, por lo tanto, r = +1 o r = -1, es decir, hay una relación lineal entre las variables dependientes e independientes. Cualquier valor de la variable independiente se puede utilizar para predecir con precisión el valor de la variable dependiente. Por el contrario, si las variables no están relacionadas en absoluto, entonces Soci = SofSisi Entonces r = 0.

También se puede ver que el coeficiente de determinación es igual a esa fracción de la varianza total S ^, que es causada o, como dicen, explicada por regresión lineal.

La suma residual de cuadrados S está relacionada con la varianza residual s2y \ x por la relación Socj = (n - 2) s ^, y la suma total de cuadrados S ^ con varianza s2 por la relación S ^ = (n - 1) s2. En este caso

r2 = 1 _ n _ 2 sy \ x n _1 sy

Esta fórmula permite juzgar la dependencia del coeficiente de correlación de la proporción de varianza residual en la varianza total.

seis / s2y Cuanto menor sea esta proporción, mayor (en valor absoluto) será el coeficiente de correlación, y viceversa.

Nos aseguramos de que el coeficiente de correlación refleje la rigidez de la relación lineal de las variables. Sin embargo, cuando se trata de predecir el valor de una variable a partir del valor de otra, en
el coeficiente de correlación no debe depender demasiado. Por ejemplo, los datos de la Fig. 8.7 corresponde a un coeficiente de correlación muy alto (r = 0.92), sin embargo, el ancho de la región de confianza de los valores muestra que la incertidumbre de la predicción es bastante significativa. Por lo tanto, incluso con un coeficiente de correlación alto, asegúrese de calcular la región de confianza.


Y finalmente, presentamos la razón del coeficiente de correlación y el coeficiente de pendiente de la recta de regresión b:

donde b es la pendiente de la recta de regresión, sx y sY son las desviaciones estándar de las variables.

Si no tomamos en cuenta el caso sx = 0, entonces el coeficiente de correlación es cero si y solo si b = 0. Ahora usaremos este hecho para evaluar la significancia estadística de la correlación.

Importancia estadística de la correlación

Dado que b = 0 implica r = 0, la hipótesis de no correlación es equivalente a la hipótesis de pendiente cero de la recta de regresión. Por tanto, para evaluar la significación estadística de la correlación, podemos utilizar la fórmula que ya conocemos para evaluar la significación estadística de la diferencia entre by cero:

Aquí el número de grados de libertad v = n - 2. Sin embargo, si el coeficiente de correlación ya se ha calculado, es más conveniente utilizar la fórmula:

El número de grados de libertad aquí también es v = n - 2.

Con la disimilitud exterior de las dos fórmulas para t, son idénticas. De hecho, por el hecho de que


r 2 _ 1 - n_ 2 Sy] x_

Sustituyendo sy ^ x en la fórmula de error estándar

Grasa animal y cáncer de mama

Los estudios en animales de laboratorio han demostrado que un alto contenido de grasa animal en la dieta aumenta el riesgo de cáncer de mama. ¿Se observa esta adicción en humanos? K. Carroll recopiló datos sobre el consumo de grasa animal y la mortalidad por cáncer de mama en 39 países. El resultado se muestra en la figura. 8.12A. El coeficiente de correlación entre el consumo de grasa animal y la mortalidad por cáncer de mama fue de 0,90. Estimemos la significancia estadística de la correlación.

0,90 1 - 0,902 39 - 2

El valor crítico de t con el número de grados de libertad v = 39 - 2 = 37 es igual a 3.574, es decir, menor al obtenido por nosotros. Por tanto, a un nivel de significación de 0,001, se puede argumentar que existe una correlación entre el consumo de grasas animales y la mortalidad por cáncer de mama.

Ahora veamos si la tasa de mortalidad está relacionada con el consumo de grasas vegetales. Los datos correspondientes se muestran en la Fig. 8.12B. El coeficiente de correlación es 0,15. Entonces

1 - 0,152 39 - 2

Incluso a un nivel de significancia de 0,10, el valor t calculado es menor que el valor crítico. La correlación no es estadísticamente significativa.

El coeficiente de correlación es el grado de relación entre dos variables. Su cálculo da una idea de si existe una relación entre los dos conjuntos de datos. A diferencia de la regresión, la correlación no predice los valores de las cantidades. Sin embargo, el cálculo del coeficiente es una etapa importante en la fase preliminar análisis estadístico... Por ejemplo, hemos encontrado que el coeficiente de correlación entre el nivel de inversión extranjera directa y la tasa de crecimiento del PIB es alto. Esto nos da la idea de que para garantizar la prosperidad es necesario crear un clima favorable específicamente para los empresarios extranjeros. ¡No es una conclusión tan obvia a primera vista!

Correlación y causalidad

Quizás, no hay una sola esfera de estadísticas que se hubiera arraigado tan firmemente en nuestra vida. El coeficiente de correlación se utiliza en todas las áreas del conocimiento público. Su principal peligro radica en que muchas veces se especula sobre sus altos valores para convencer a la gente y hacerla creer en algunas conclusiones. Sin embargo, en realidad, una fuerte correlación no indica en absoluto una relación causal entre las cantidades.

Coeficiente de correlación: fórmula de Pearson y Spearman

Hay varios indicadores principales que caracterizan la relación entre dos variables. Históricamente, el primero es el coeficiente de correlación lineal de Pearson. Se lleva a cabo en la escuela. Fue desarrollado por K. Pearson y J. Youl basado en los trabajos del P. Galton. Esta relación le permite ver la relación entre numeros racionales que cambian racionalmente. Siempre es mayor que -1 y menor que 1. Un número negativo indica una relación inversa. Si el coeficiente es cero, entonces no hay relación entre las variables. Cuervo numero positivo- tiene lugar directamente relación proporcional entre las cantidades investigadas. El coeficiente de correlación de rango de Spearman simplifica los cálculos al construir una jerarquía de valores de variables.

Relaciones entre variables

La correlación ayuda a responder dos preguntas. Primero, es la relación entre las variables positiva o negativa. En segundo lugar, qué tan fuerte es la adicción. El análisis de correlación es una poderosa herramienta con la que puede obtener esta importante información. Es fácil ver que los ingresos y gastos de los hogares están disminuyendo y aumentando proporcionalmente. Esta relación se considera positiva. Por el contrario, cuando el precio de un producto aumenta, la demanda del mismo cae. Esta relación se llama negativa. Los valores del coeficiente de correlación se encuentran en el rango entre -1 y 1. Cero significa que no existe relación entre los valores estudiados. Cuanto más cercano esté el indicador obtenido a los valores extremos, más fuerte será la relación (negativa o positiva). La ausencia de dependencia se evidencia por el coeficiente de -0,1 a 0,1. Debe entenderse que dicho valor indica solo la ausencia de una conexión lineal.

Características de la aplicación

El uso de ambos indicadores implica ciertos supuestos. Primero, la presencia de un vínculo fuerte no lleva al hecho de que una cantidad determine a otra. Bien puede haber una tercera magnitud que defina a cada uno de ellos. En segundo lugar, el alto coeficiente de correlación de Pearson no indica una relación causal entre las variables estudiadas. En tercer lugar, muestra una relación extremadamente lineal. La correlación se puede utilizar para evaluar datos cuantitativos significativos (p. Ej. presión atmosférica temperatura), no categorías como género o color favorito.

Coeficiente de correlación múltiple

Pearson y Spearman examinaron la relación entre las dos variables. Pero cómo actuar si hay tres o incluso más. Aquí es donde entra en juego el coeficiente de correlación múltiple. Por ejemplo, el producto nacional bruto está influenciado no solo por la inversión extranjera directa, sino también por la política monetaria y fiscal del estado, así como por el nivel de exportaciones. La tasa de crecimiento y el volumen del PIB son el resultado de la interacción de varios factores. Sin embargo, debe entenderse que el modelo de correlación múltiple se basa en una serie de simplificaciones y supuestos. Primero, se elimina la multicolinealidad entre cantidades. En segundo lugar, la relación entre las variables dependientes e influyentes se considera lineal.

Áreas de uso del análisis de correlación y regresión

Este método de encontrar la relación entre valores se usa ampliamente en estadística. Se recurre a él con mayor frecuencia en tres casos principales:

  1. Probar la relación causal entre los valores de dos variables. Como resultado, el investigador espera encontrar una relación lineal y derivar una fórmula que describa estas relaciones entre cantidades. Sus unidades de medida pueden ser diferentes.
  2. Para comprobar si existe una relación entre los valores. En este caso, nadie determina qué variable es dependiente. Puede resultar que el valor de ambas cantidades determine algún otro factor.
  3. Derivar la ecuación. En este caso, simplemente puede sustituir números y averiguar los valores de la variable desconocida.

Hombre en busca de una relación causal

La conciencia está organizada de tal manera que definitivamente necesitamos explicar los eventos que están sucediendo a nuestro alrededor. Una persona siempre está buscando una conexión entre la imagen del mundo en el que vive y la información que recibe. A menudo, el cerebro crea orden a partir del caos. Puede ver fácilmente una relación causal donde no la hay. Los científicos tienen que aprender especialmente a superar esta tendencia. La capacidad de evaluar las conexiones entre datos de manera objetiva es esencial en una carrera académica.

Sesgo de los medios

Considere cómo se puede malinterpretar la presencia de una correlación. Grupo Estudiantes británicos con mal comportamiento se les preguntó si sus padres fumaban. Luego, la prueba se publicó en el periódico. El resultado mostró una fuerte correlación entre el tabaquismo de los padres y la delincuencia de sus hijos. El profesor que realizó este estudio incluso sugirió poner una advertencia en los paquetes de cigarrillos al respecto. Sin embargo, existen varios problemas con esta conclusión. Primero, la correlación no indica cuál de las cantidades es independiente. Por lo tanto, es completamente posible suponer que la adicción de los padres es causada por la desobediencia de los hijos. En segundo lugar, no se puede decir con certeza que ambos problemas no aparecieron debido a algún tercer factor. Por ejemplo, familias de bajos ingresos. Cabe señalar el aspecto emocional de los hallazgos iniciales del profesor que realizó la investigación. Era un ferviente oponente del tabaquismo. Por tanto, no es de extrañar que interpretara los resultados de su investigación de esta forma.

conclusiones

La mala interpretación de la correlación como una relación causal entre dos variables puede conducir a vergonzosos errores de investigación. El problema es que se encuentra en el núcleo mismo de la conciencia humana. Muchos trucos de marketing se basan en esta función. Comprender la diferencia entre causalidad y correlación le permite analizar racionalmente la información como en La vida cotidiana y en una carrera profesional.

Coeficiente de correlación Es un valor que puede variar de +1 a –1. En el caso de una correlación positiva completa, este coeficiente es igual a más 1 (dicen que con un aumento en el valor de una variable, aumenta el valor de otra variable), y con una correlación negativa completa, menos 1 (indican una retroalimentación, es decir, con un aumento en los valores de una variable, los valores de la otra disminuyen).

Ej.1.:

Un gráfico de la dependencia de la timidez y la diplomacia. Como puede ver, los puntos (sujetos) no están ubicados caóticamente, sino que están alineados alrededor de una línea, y, mirando esta línea, podemos decir que cuanto más timidez se expresa en una persona, más depresión es, es decir. , estos fenómenos están interrelacionados.

Ej. 2: Horario de timidez y sociabilidad. Vemos que a medida que aumenta la timidez, la sociabilidad disminuye. Su coeficiente de correlación es -0,43. Así, un coeficiente de correlación mayor de 0 a 1 indica una relación proporcional directa (cuanto más ... más ...), y el coeficiente de -1 a 0 indica una relación proporcional inversa (cuanto más ... menos. ..)

Si el coeficiente de correlación es 0, ambas variables son completamente independientes entre sí.

Enlace de correlación- esta es una relación en la que el impacto de factores individuales se manifiesta solo como una tendencia (en promedio) en la observación masiva de datos reales. Ejemplos de dependencia de la correlación pueden ser la dependencia entre el tamaño de los activos del banco y el monto de las ganancias del banco, el crecimiento de la productividad laboral y el tiempo de servicio de los empleados.

Se utilizan dos sistemas de clasificación de correlaciones según su fuerza: general y particular.

Clasificación general de las correlaciones: 1) fuerte o cercana con un coeficiente de correlación r> 0.70; 2) promedio en 0.500.70, y no solo una correlación nivel alto significado.

La siguiente tabla enumera los nombres de los coeficientes de correlación para los diferentes tipos de escalas.

Escala dicotómica (1/0) Escala de rango (ordinal)
Escala dicotómica (1/0) Coeficiente de asociación de Pearson, coeficiente de conjugación de cuatro células de Pearson. Correlación biserial
Escala de rango (ordinal) Correlación de rango-biserial. Coeficiente de correlación de rango de Spearman o Kendall.
Intervalo y escala absoluta Correlación biserial Los valores de la escala de intervalo se convierten en rangos y se usa el coeficiente de rango Coeficiente de correlación de Pearson (coeficiente de correlación lineal)

En r=0 no hay correlación lineal. En este caso, las medias de grupo de las variables coinciden con sus medias generales y las líneas de regresión son paralelas a los ejes de coordenadas.

Igualdad r=0 habla solo de la ausencia de una dependencia de correlación lineal (variables no correlacionadas), pero no en general de la ausencia de una correlación, y más aún, de una dependencia estadística.

A veces, la conclusión de que no existe correlación es más importante que la presencia de una fuerte correlación. La correlación cero entre dos variables puede indicar que no hay efecto de una variable sobre la otra, siempre que confiemos en los resultados de la medición.

En SPSS: 11.3.2 Coeficientes de correlación

Hasta ahora, solo hemos aclarado el hecho mismo de la existencia de una relación estadística entre las dos características. A continuación, intentaremos averiguar qué conclusiones se pueden sacar sobre la fuerza o debilidad de esta dependencia, así como sobre su tipo y dirección. Los criterios para cuantificar la relación entre variables se denominan coeficientes de correlación o medidas de conectividad. Dos variables se correlacionan positivamente entre sí si existe una relación directa y unidireccional entre ellas. En una relación unidireccional, los valores pequeños de una variable corresponden a los valores pequeños de otra variable, los valores grandes corresponden a los grandes. Dos variables se correlacionan negativamente entre sí si existe una relación inversa y multidireccional entre ellas. En una relación multidireccional, los valores pequeños de una variable corresponden a los valores grandes de otra variable y viceversa. Los valores del coeficiente de correlación están siempre en el rango de -1 a +1.

El coeficiente de Spearman se utiliza como coeficiente de correlación entre las variables pertenecientes a la escala ordinal y el coeficiente de correlación de Pearson (momento de los productos) para las variables pertenecientes a la escala de intervalo. Hay que tener en cuenta que cada variable dicotómica, es decir, una variable perteneciente a la escala nominal y que tenga dos categorías, puede considerarse ordinal.

Primero, comprobaremos si existe una correlación entre las variables de sexo y psique del archivo studium.sav. En este caso, tendremos en cuenta que la variable dicotómica sexo puede considerarse ordinal. Sigue estos pasos:

Seleccione Tablas de referencias cruzadas ... en la barra de comandos Analizar

· Mueva la variable sexo a la lista de cadenas y la variable psique a la lista de columnas.

· Haga clic en el botón Estadísticas ... En el cuadro de diálogo Tablas de contingencia: Estadísticas, marque la casilla Correlaciones. Confirme su selección con el botón Continuar.

· En el cuadro de diálogo Tablas de contingencia, no genere tablas marcando la casilla Suprimir tablas. Haga clic en el botón Aceptar.

Se calcularán los coeficientes de correlación de Spearman y Pearson y se comprobará su significancia:

/ SPSS 10

Tarea número 10 Análisis de correlación

Concepto de correlación

Correlación o coeficiente de correlación es una medida estadística probabilístico relaciones entre dos variables, medidas en escalas cuantitativas. En contraste con la relación funcional, en la que cada valor de una variable corresponde a estrictamente definido el valor de otra variable, conexión probabilística caracterizado por el hecho de que cada valor de una variable corresponde a muchos significados Otra variable, un ejemplo de relación probabilística es la relación entre la altura y el peso de las personas. Está claro que personas de distintos pesos pueden tener la misma altura y viceversa.

La correlación es un valor entre -1 y + 1 y se denota con la letra r. Además, si el valor está más cerca de 1, esto significa la presencia de un vínculo fuerte, y si está más cerca de 0, entonces uno débil. Un valor de correlación de menos de 0,2 se considera una correlación débil, por encima de 0,5 - una alta. Si el coeficiente de correlación es negativo, significa que hay una retroalimentación: cuanto mayor es el valor de una variable, menor es el valor de la otra.

Dependiendo de los valores aceptados del coeficiente r, se pueden distinguir varios tipos de correlación:

Fuerte correlación positiva está determinado por el valor r = 1. El término "estricto" significa que el valor de una variable está determinado únicamente por los valores de otra variable, y el término " positivo "- que con valores crecientes de uno valor variable la otra variable también está aumentando.

La fuerte correlación es abstracción matemática y prácticamente no ocurre en la investigación real.

Correlacion positiva corresponde a valores 0

Falta de correlación está determinado por el valor r = 0. Un coeficiente de correlación cero significa que los valores de las variables no están relacionados de ninguna manera.

Falta de correlación H o : 0 r xy =0 expresado como un reflejo nulo hipótesis en el análisis de correlación.

Correlación negativa: -1

Fuerte correlación negativa está determinada por el valor r = -1. Al igual que la correlación positiva estricta, es una abstracción y no encuentra expresión en la investigación práctica.

tabla 1

Tipos de correlación y sus definiciones

El método para calcular el coeficiente de correlación depende del tipo de escala con la que se miden los valores de la variable.

Coeficiente de correlación rPearson es básico y se puede utilizar para variables con escalas de intervalo nominales y parcialmente ordenadas, cuya distribución de valores corresponde a la normal (correlación de los momentos del producto). El coeficiente de correlación de Pearson da resultados bastante precisos en casos de distribuciones anormales.

Para distribuciones que no son normales, es preferible utilizar los coeficientes de correlación de rango de Spearman y Kendall. Se clasifican porque el programa clasifica previamente las variables correlacionadas.

El programa SPSS calcula la correlación rSpeaker de la siguiente manera: primero, las variables se traducen en rangos y luego se aplica la fórmula de Pearson a los rangos.

La correlación propuesta por M. Kendall se basa en la idea de que la dirección de la conexión se puede juzgar comparando por parejas a los sujetos entre sí. Si para un par de sujetos el cambio en X coincide en dirección con el cambio en Y coincide, entonces esto indica una relación positiva. Si no coincide, entonces sobre una relación negativa. Este coeficiente lo utilizan principalmente los psicólogos que trabajan con muestras pequeñas. Dado que los sociólogos trabajan con grandes cantidades de datos, es difícil enumerar pares para identificar la diferencia en las frecuencias relativas e inversiones de todos los pares de sujetos de la muestra. La más común son las probabilidades. Pearson.

Dado que el coeficiente de correlación rPirson es el principal y se puede utilizar (con algún error según el tipo de escala y el nivel de anomalía en la distribución) para todas las variables medidas en escalas cuantitativas, consideraremos ejemplos de su uso y compararemos los resultados obtenidos con los resultados de las mediciones para otros coeficientes de correlación.

La fórmula para calcular el coeficiente. r- Pearson:

r xy = ∑ (Xi-Xav) ∙ (Yi-Yav) / (N-1) ∙ σ x ∙ σ y ∙

Donde: Xi, Yi- Valores de dos variables;

Xср, Yср - valores medios de dos variables;

σ x, σ y - desviaciones estándar,

N es el numero de observaciones.

Correlaciones por pares

Por ejemplo, nos gustaría saber cómo se relacionan las respuestas entre diferentes tipos valores tradicionales en las ideas de los estudiantes sobre el lugar ideal de trabajo (variables: a9.1, a9.3, a9.5, a9.7), y luego sobre la razón de valores liberales (a9.2, a9 .4, a9.6, a9. Ocho). Estas variables se miden en escalas ordenadas de 5 términos.

Usamos el procedimiento: "Análisis",  "Correlaciones",  "Pareadas". De forma predeterminada, el coeff. Pearson se instala en el cuadro de diálogo. Usamos el coeficiente. Pearson

Las variables probadas se transfieren a la ventana de selección: a9.1, a9.3, a9.5, a9.7

Al hacer clic en Aceptar, obtenemos el cálculo:

Correlaciones

a9.1.t. ¿Qué importancia tiene tener suficiente tiempo para la vida familiar y personal?

Correlación de Pearson

Zn (2 caras)

a9.3.t. ¿Qué importancia tiene no tener miedo de perder su trabajo?

Correlación de Pearson

Zn (2 caras)

a9.5.t. ¿Qué importancia tiene tener un jefe que le consulte a la hora de tomar tal o cual decisión?

Correlación de Pearson

Zn (2 caras)

a9.7.t. ¿Qué importancia tiene trabajar en un equipo bien coordinado, sentirse parte de él?

Correlación de Pearson

Zn (2 caras)

** La correlación es significativa a 0.01 (bilateral).

Tabla de valores cuantitativos de la matriz de correlación construida

Correlaciones parciales:

Primero, construyamos una correlación por pares entre estas dos variables:

Correlaciones

c8. Sentirse cerca de los que viven cerca de sus vecinos.

Correlación de Pearson

Zn (2 caras)

c12. Sentirse cerca de su familia

Correlación de Pearson

Zn (2 caras)

**. La correlación es significativa al nivel 0.01 (bilateral).

Luego usamos el procedimiento para construir una correlación parcial: “Análisis”,  “Correlaciones”,  “Privado”.

Supongamos que el valor “Es importante determinar y cambiar de forma independiente el orden de tu trabajo” en relación a las variables indicadas será el factor decisivo bajo cuya influencia la relación previamente identificada desaparecerá o será insignificante.

Correlaciones

Variables excluidas

c8. Sentirse cerca de los que viven cerca de sus vecinos.

c12. Sentirse cerca de su familia

c16. Sentirse cerca de personas que tienen la misma riqueza que usted.

c8. Sentirse cerca de los que viven cerca de sus vecinos.

Correlación

Importancia (2 caras)

c12. Sentirse cerca de su familia

Correlación

Importancia (2 caras)

Como se puede observar en la tabla, bajo la influencia de la variable de control, la relación disminuyó levemente: de 0, 120 a 0, 102. Sin embargo, esta leve disminución no permite afirmar que la relación previamente identificada sea un reflejo de una correlación falsa, porque permanece lo suficientemente alto y permite refutar la hipótesis nula con error cero.

Coeficiente de correlación

La forma más precisa de determinar la densidad y la naturaleza de la correlación es encontrar el coeficiente de correlación. El coeficiente de correlación es un número determinado por la fórmula:


donde r xy es el coeficiente de correlación;

x i -valores de la primera característica;

i -valores de la segunda característica;

Promedio valores aritméticos primer signo

La media aritmética de los valores de la segunda característica.

Para usar la fórmula (32), construimos una tabla que proporcionará la secuencia necesaria en la preparación de números para encontrar el numerador y denominador del coeficiente de correlación.

Como se puede ver en la fórmula (32), la secuencia de acciones es la siguiente: encontramos las medias aritméticas de ambos signos xey, encontramos la diferencia entre los valores de la característica y su promedio (x і -) y у і -), luego encontramos su producto (x і -) (y i -) - la suma del último da el numerador del coeficiente de correlación. Para encontrar su denominador, la diferencia (x i -) y (y i -) deben elevarse al cuadrado, encontrar sus sumas y extraer la raíz cuadrada de su producto.

Así, por ejemplo, 31 hallar el coeficiente de correlación de acuerdo con la fórmula (32) se puede representar como sigue (tabla. 50).

El número resultante del coeficiente de correlación permite establecer la presencia, rigidez y naturaleza de la relación.

1. Si el coeficiente de correlación es cero, no hay relación entre las características.

2. Si el coeficiente de correlación es igual a uno, la relación entre las características es tan grande que se convierte en funcional.

3. El valor absoluto del coeficiente de correlación no supera el intervalo de cero a uno:

Esto permite centrarse en la rigidez de la relación: cuanto más cerca de cero es el valor del coeficiente, más débil es la relación y cuanto más cerca de uno, más estrecha es la relación.

4. El signo del coeficiente de correlación "más" significa correlación directa, el signo "menos" - inverso.

mesa 50

x yo en yo (x i -) (en i -) (x yo -) (y yo -) (x i -) 2 (y yo -) 2
14,00 12,10 -1,70 -2,30 +3,91 2,89 5,29
14,20 13,80 -1,50 -0,60 +0,90 2,25 0,36
14,90 14,20 -0,80 -0,20 +0,16 0,64 0,04
15,40 13,00 -0,30 -1,40 +0,42 0,09 1,96
16,00 14,60 +0,30 +0,20 +0,06 0,09 0,04
17,20 15,90 +1,50 +2,25 2,25
18,10 17,40 +2,40 +2,00 +4,80 5,76 4,00
109,80 101,00 12,50 13,97 13,94


Por tanto, el coeficiente de correlación calculado en el ejemplo 31 es r xy = +0,9. nos permite sacar las siguientes conclusiones: existe una correlación entre la magnitud de la fuerza muscular de la mano derecha e izquierda en los escolares estudiados (el coeficiente r xy = + 0.9 es distinto de cero), la relación es muy cercana (el coeficiente r xy = + 0.9 es cercano a uno), la correlación es directa (coeficiente r xy = +0,9 positivo), es decir, con un aumento de la fuerza muscular en una de las manos, la fuerza de la otra mano aumenta.

Al calcular el coeficiente de correlación y utilizar sus propiedades, se debe tener en cuenta que las conclusiones dan resultados correctos en el caso en que las características se distribuyen normalmente y cuando se considera la relación entre un gran número de valores de ambas características.

En el ejemplo 31 considerado, solo se analizan 7 valores de ambos signos, lo que, por supuesto, no es suficiente para tales estudios. Recordamos aquí nuevamente que los ejemplos, en este libro en general y en este capítulo en particular, tienen la naturaleza de ilustraciones de métodos, y no una presentación detallada de ningún método. experimentos científicos... Como resultado, se considera una pequeña cantidad de valores de características, las mediciones se redondean; todo esto se hace para no oscurecer la idea del método con cálculos engorrosos.

Se debe prestar especial atención a la esencia de la relación en consideración. El coeficiente de correlación no puede conducir a resultados de investigación correctos si el análisis de la relación entre características se lleva a cabo formalmente. Volvamos una vez más al ejemplo 31. Ambos signos considerados fueron los valores de la fuerza muscular de la mano derecha e izquierda. Imaginemos que bajo el signo xi en el ejemplo 31 (14.0; 14.2; 14.9 ... ... 18.1) nos referimos a la longitud del pescado capturado al azar en centímetros, y bajo el signo y i (12.1; 13.8; 14.2 .. . ... 17.4) es el peso de los instrumentos en el laboratorio en kilogramos. Formalmente, utilizando el aparato de cálculos para encontrar el coeficiente de correlación y habiendo obtenido en este caso también r xy = + 0> 9, tuvimos que concluir que existe una estrecha relación de naturaleza directa entre la talla del pez y el peso de los dispositivos. La insensatez de tal conclusión es obvia.

Para evitar un acercamiento formal al uso del coeficiente de correlación, se debe utilizar cualquier otro método --matemático, lógico, experimental, teórico-- para revelar la posibilidad de la existencia de un vínculo de correlación entre los signos, es decir, para detectar la estructura orgánica. unidad de signos. Solo entonces se puede comenzar a utilizar el análisis de correlación y establecer la magnitud y la naturaleza de la relación.

En estadística matemática, también existe el concepto correlación múltiple- la relación entre tres o más características. En estos casos, se utiliza un coeficiente de correlación múltiple, que consta de los coeficientes de correlación por pares descritos anteriormente.

Por ejemplo, el coeficiente de correlación de tres signos - x i, i, z i - es:

donde R xyz es el coeficiente de correlación múltiple, que expresa cómo la característica x i depende de las características y i y z i;

r xy es el coeficiente de correlación entre los signos x i y y i;

r xz es el coeficiente de correlación entre los signos Xi y Zi;

r yz - coeficiente de correlación entre características y i, z i

El análisis de correlación es:

Análisis de correlación

Correlación- la relación estadística de dos o más variables aleatorias (o cantidades que pueden considerarse como tales con un grado aceptable de precisión). Además, los cambios en uno o más de estos valores conducen a un cambio sistemático en otro u otros valores. El coeficiente de correlación sirve como medida matemática de la correlación de dos variables aleatorias.

La correlación puede ser positiva y negativa (también es posible una situación en la que no existe una relación estadística, por ejemplo, para variables aleatorias independientes). Correlación negativa - correlación, en la que un aumento en una variable se asocia con una disminución en otra variable, mientras que el coeficiente de correlación es negativo. Correlacion positiva - correlación, en la que un aumento en una variable se asocia con un aumento en otra variable, mientras que el coeficiente de correlación es positivo.

Autocorrelación - relación estadística entre variables aleatorias de la misma serie, pero tomadas con un desplazamiento, por ejemplo, para un proceso aleatorio, con un desplazamiento en el tiempo.

El método de procesamiento de datos estadísticos, que consiste en estudiar los coeficientes (correlaciones) entre variables, se denomina Análisis de correlación.

Coeficiente de correlación

Coeficiente de correlación o coeficiente de correlación pareada en teoría de probabilidad y estadística, es un indicador de la naturaleza de los cambios en dos variables aleatorias. El coeficiente de correlación se denota con la letra latina R y puede tomar valores entre -1 y +1. Si el valor absoluto está más cerca de 1, esto significa la presencia de una conexión fuerte (con el coeficiente de correlación igual a uno hablar de una conexión funcional), y si está más cerca de 0, entonces débil.

Coeficiente de correlación de Pearson

Para los valores métricos, se aplica el coeficiente de correlación de Pearson, cuya fórmula exacta fue introducida por Francis Galton:

Dejar X,Y- dos variables aleatorias definidas en el mismo espacio de probabilidad. Entonces su coeficiente de correlación viene dado por la fórmula:

,

donde cov denota covarianza y D denota varianza, o equivalentemente

,

donde el símbolo denota la expectativa matemática.

Para representar gráficamente tal relación, puede usar un sistema de coordenadas rectangular con ejes que correspondan a ambas variables. Cada par de valores está marcado con un símbolo específico. Este diagrama se denomina "diagrama de dispersión".

El método para calcular el coeficiente de correlación depende del tipo de escala a la que pertenecen las variables. Entonces, para medir variables con escalas de intervalo y cuantitativas, es necesario utilizar el coeficiente de correlación de Pearson (correlación de momentos de trabajos). Si al menos una de las dos variables tiene una escala ordinal o no está distribuida normalmente, entonces se debe utilizar la correlación de rango de Spearman o la correlación τ (tau) de Kendal. En el caso de que una de las dos variables sea dicotómica, se utiliza la correlación puntual de dos filas, y si ambas variables son dicotómicas: correlación de cuatro campos. El cálculo del coeficiente de correlación entre dos variables no dicotómicas tiene sentido solo si la relación entre ellas es lineal (unidireccional).

Coeficiente de correlación de Kendall

Se usa para medir el desorden mutuo.

Coeficiente de correlación de Spearman

Propiedades del coeficiente de correlación

  • Desigualdad de Cauchy-Bunyakovsky:
si tomamos la covarianza como el producto escalar de dos variables aleatorias, entonces la norma variable aleatoria será igual , y la consecuencia de la desigualdad de Cauchy-Bunyakovsky será :. , donde . Además, en este caso los signos y k emparejar: .

Análisis de correlación

Análisis de correlación- un método de procesamiento de datos estadísticos, que consiste en estudiar los coeficientes ( correlaciones) entre variables. En este caso, los coeficientes de correlación se comparan entre un par o una pluralidad de pares de características para establecer relaciones estadísticas entre ellos.

Objetivo Análisis de correlación- proporcionar la obtención de información sobre una variable utilizando otra variable. En los casos en que es posible lograr la meta, dicen que las variables correlación... En el mismísimo vista general La aceptación de la hipótesis de la presencia de una correlación significa que un cambio en el valor de la variable A ocurrirá simultáneamente con un cambio proporcional en el valor de B: si ambas variables crecen, entonces la correlación es positiva si una variable crece y la otra disminuye, la correlación es negativa.

La correlación refleja solo la dependencia lineal de los valores, pero no refleja su conectividad funcional. Por ejemplo, si calcula el coeficiente de correlación entre los valores A = sInorte(X) y B = Cos(X), entonces estará cerca de cero, es decir, no hay dependencia entre las cantidades. Mientras tanto, las cantidades A y B están obviamente relacionadas funcionalmente por la ley sInorte 2(X) + Cos 2(X) = 1.

Limitaciones del análisis de correlación



Gráficos de distribuciones de pares (x, y) con los correspondientes coeficientes de correlación xey para cada uno de ellos. Tenga en cuenta que el coeficiente de correlación refleja una relación lineal (fila superior), pero no describe una curva de dependencia (fila central) y no es adecuado para describir relaciones complejas no lineales (fila inferior).
  1. La aplicación es posible si hay un número suficiente de casos para el estudio: para un tipo específico de coeficiente de correlación es de 25 a 100 pares de observaciones.
  2. La segunda limitación se deriva de la hipótesis del análisis de correlación, que se basa en dependencia lineal de variables... En muchos casos, cuando se sabe con certeza que existe la dependencia, es posible que el análisis de correlación no dé resultados simplemente debido al hecho de que la dependencia no es lineal (expresada, por ejemplo, en forma de parábola).
  3. El mismo hecho de una correlación no da fundamento para afirmar cuál de las variables precede o provoca cambios, o que las variables están generalmente relacionadas causalmente, por ejemplo, debido a la acción de un tercer factor.

Área de aplicación

Este método de procesar datos estadísticos es muy popular en economía y Ciencias Sociales(en particular, en psicología y sociología), aunque el ámbito de aplicación de los coeficientes de correlación es amplio: control de calidad de productos industriales, metalurgia, agroquímica, hidrobiología, biometría, entre otros.

La popularidad del método se debe a dos puntos: los coeficientes de correlación son relativamente fáciles de calcular, su aplicación no requiere un entrenamiento matemático especial. Combinada con la facilidad de interpretación, la facilidad de aplicación del coeficiente ha llevado a su uso generalizado en el campo del análisis de datos estadísticos.

Correlación falsa

A menudo, la tentadora simplicidad de la investigación de correlaciones empuja al investigador a sacar conclusiones intuitivas falsas sobre la presencia de una relación causal entre pares de signos, mientras que los coeficientes de correlación establecen solo relaciones estadísticas.

En la metodología cuantitativa moderna de las ciencias sociales, de hecho, ha habido un rechazo a los intentos de establecer relaciones causales entre las variables observadas. métodos empíricos... Por tanto, cuando los investigadores en ciencias sociales hablan del establecimiento de relaciones entre las variables estudiadas, se da a entender un supuesto teórico general o una dependencia estadística.

ver también

  • Función de autocorrelación
  • Función de correlación cruzada
  • Covarianza
  • Coeficiente de determinación
  • Análisis de regresión

Fundación Wikimedia. 2010.

La correlación es el grado de conexión entre 2 o más fenómenos independientes.

La correlación es positiva y negativa.

Correlación positiva (directa) ocurre cuando 2 variables cambian simultáneamente en la misma dirección (positiva o negativa). Por ejemplo, la relación entre el número de usuarios que llegan al sitio desde los resultados de la búsqueda y la carga en el servidor: cuantos más usuarios, mayor es la carga.

La correlación es negativa (inversa) si un cambio en una cantidad conduce a un cambio opuesto en otra. Por ejemplo, a medida que aumenta la carga fiscal sobre las empresas, disminuyen sus beneficios. Cuantos más impuestos, menos dinero para el desarrollo.

La efectividad de la correlación como herramienta estadística radica en la capacidad de expresar la relación entre dos variables mediante el coeficiente de correlación.

El coeficiente de correlación (CC) está en el rango de números de -1 a 1.

Cuando el valor de KK es igual a 1, debe entenderse que con cada cambio de la 1ª variable, hay un cambio equivalente en la 2ª variable en la misma dirección.


Si el valor de KK es -1, entonces con cada cambio hay un cambio equivalente en la segunda variable en la dirección opuesta.


Cuanto más cercana sea la correlación a -1 o 1, más fuerte será la relación entre las variables. Cuando el valor es cero (o cercano a 0), no existe una relación significativa entre las 2 variables o es muy mínima.

Este método de procesamiento de información estadística es popular en las ciencias económicas, técnicas, sociales y otras debido a la simplicidad de calcular el CC, la facilidad de interpretación de los resultados y la ausencia de la necesidad de dominar las matemáticas a un alto nivel.

La correlación refleja solo la relación entre variables y no habla de relaciones causales: una correlación positiva o negativa entre dos variables no significa necesariamente que un cambio en una variable cause un cambio en la otra.

Por ejemplo, existe una correlación positiva entre un aumento en el salario de los gerentes de ventas y la calidad del servicio al cliente (mejorar la calidad del servicio, trabajar con objeciones, conocimiento cualidades positivas producto en comparación con la competencia) con la motivación adecuada del personal. El aumento de las ventas y, en consecuencia, los salarios de los gerentes, no significa que los gerentes hayan mejorado la calidad del trabajo con los clientes. Es probable que los pedidos grandes lleguen por accidente y se envíen, o que el departamento de marketing haya aumentado su presupuesto de publicidad, o que haya sucedido algo más.

Quizás exista alguna tercera variable que influya en el motivo de la presencia o ausencia de correlación.

El coeficiente de correlación no se calcula:

  • cuando la relación entre dos variables no es lineal, por ejemplo, cuadrática;
  • los datos contienen más de 1 observación para cada caso;
  • hay observaciones anormales (arrebatos, "renegados");
  • los datos contienen distintos subgrupos de observaciones.

TRABAJO DEL CURSO

Tema: Análisis de correlación

Introducción

1. Análisis de correlación

1.1 El concepto de correlación

1.2 Clasificación general de correlaciones

1.3 Campos de correlación y propósito de su construcción

1.4 Etapas del análisis de correlación

1.5 Coeficientes de correlación

1.6 Coeficiente de correlación normalizado de Brave-Pearson

1.7 Coeficiente de correlación de rango de Spearman

1.8 Propiedades básicas de los coeficientes de correlación

1.9 Comprobación de la significancia de los coeficientes de correlación

1.10 Valores críticos del coeficiente de correlación de pares

2. Planificación de un experimento multivariante

2.1 Condición del problema

2.2 Determinación del centro del plan (nivel básico) y el nivel de variación de factores

2.3 Construyendo una matriz de planificación

2.4 Comprobación de la homogeneidad de la dispersión y la uniformidad de la medición en diferentes series

2.5 Coeficientes de la ecuación de regresión

2.6 Dispersión de la reproducibilidad

2.7 Comprobación de la significancia de los coeficientes de la ecuación de regresión

2.8 Comprobación de la adecuación de la ecuación de regresión

Conclusión

Bibliografía

INTRODUCCIÓN

El diseño de experimentos es una disciplina matemático-estadística que estudia métodos de organización racional. investigación experimental- desde la elección óptima de los factores investigados y la definición del plan real del experimento de acuerdo con su propósito hasta los métodos de análisis de los resultados. El comienzo de la planificación del experimento fue establecido por los trabajos del estadístico inglés R. Fisher (1935), quien enfatizó que la planificación racional del experimento proporciona una ganancia no menos significativa en la precisión de las estimaciones que el procesamiento óptimo de la medición. resultados. En los años 60 del siglo XX, hubo teoría moderna planeando un experimento. Sus métodos están estrechamente relacionados con la teoría de la aproximación de funciones y la programación matemática. Se construyen diseños óptimos y se investigan sus propiedades para una amplia clase de modelos.

La planificación de experimentos es la elección de un plan de experimentos que cumpla con los requisitos especificados, un conjunto de acciones destinadas a desarrollar una estrategia de experimentación (desde obtener información a priori hasta obtener un modelo matemático viable o determinar las condiciones óptimas). Se trata de un control intencionado del experimento, que se realiza en condiciones de conocimiento incompleto del mecanismo del fenómeno en estudio.

En el proceso de mediciones, posterior procesamiento de datos, así como la formalización de los resultados en forma de modelo matemático, surgen errores y se pierde parte de la información contenida en los datos iniciales. El uso de métodos de planificación experimental le permite determinar el error del modelo matemático y juzgar su idoneidad. Si la precisión del modelo resulta insuficiente, entonces el uso de métodos de planificación experimental le permite modernizar el modelo matemático con experimentos adicionales sin perder la información anterior y con costos mínimos.

El propósito de la planificación de experimentos es encontrar condiciones y reglas para realizar experimentos bajo las cuales sea posible obtener información confiable y confiable sobre un objeto con la menor cantidad de trabajo, y también presentar esta información en una forma compacta y conveniente con un valor cuantitativo. evaluación de la precisión.

Entre los principales métodos de planificación utilizados en etapas diferentes usos de investigación:

Planificación de un experimento de detección, cuyo significado principal es la selección del conjunto completo de factores de un grupo de factores significativos que están sujetos a más estudio detallado;

Diseñar un experimento para el análisis de varianza, es decir elaboración de planos de objetos con factores de calidad;

Planificación de un experimento de regresión que le permita obtener modelos de regresión (polinomiales y otros);

Planificación de un experimento extremo, en el que la tarea principal es la optimización experimental del objeto de investigación;

Planificación en el estudio de procesos dinámicos, etc.

El propósito del estudio de la disciplina es preparar a los estudiantes para las actividades productivas y técnicas en su especialidad utilizando los métodos de la teoría de la planificación y la teoría moderna. tecnologías de la información.

Objetivos disciplinarios: estudio métodos modernos planificar, organizar y optimizar un experimento científico e industrial, realizar experimentos y procesar los resultados obtenidos.

1. ANÁLISIS DE CORRELACIÓN

1.1 Concepto de correlación

El investigador suele estar interesado en cómo se relacionan entre sí dos o más variables en una o más muestras estudiadas. Por ejemplo, ¿puede la altura afectar el peso de una persona o la presión puede afectar la calidad del producto?

Este tipo de relación entre variables se llama correlación o correlación. La correlación es un cambio constante en dos rasgos, lo que refleja el hecho de que la variabilidad de un rasgo está en consonancia con la variabilidad del otro.

Se sabe, por ejemplo, que, en promedio, existe una relación positiva entre la altura de las personas y su peso, y de tal manera que a mayor altura, mayor peso de una persona. Sin embargo, hay excepciones a esta regla cuando relativamente gente baja tienen sobrepeso y, a la inversa, los asténicos, con alto crecimiento, tienen poco peso. El motivo de tales excepciones es que cada signo biológico, fisiológico o psicológico está determinado por la influencia de muchos factores: ambientales, genéticos, sociales, ecológicos, etc.

Los enlaces de correlación son cambios probabilísticos que solo pueden estudiarse en muestras representativas utilizando métodos estadística matemática... Ambos términos, correlación y correlación, a menudo se usan indistintamente. La dependencia implica influencia, la conexión implica cualquier cambio acordado que pueda atribuirse a cientos de razones. Las relaciones de correlación no pueden considerarse como evidencia de una relación causal, solo indican que los cambios en una característica, por regla general, van acompañados de ciertos cambios en otra.

Dependencia de correlación - Estos son cambios que introducen los valores de una característica en la probabilidad de ocurrencia. diferentes significados otra señal.

La tarea del análisis de correlación se reduce a establecer la dirección (positiva o negativa) y la forma (lineal, no lineal) de la relación entre signos variables, midiendo su rigidez y, finalmente, a verificar el nivel de significancia de los coeficientes de correlación obtenidos.

Los enlaces de correlación difieren en forma, dirección y grado (fuerza) .

En forma, la correlación puede ser recta o curva. Por ejemplo, la relación entre el número de entrenamientos en el simulador y el número de problemas resueltos correctamente en la sesión de control puede ser sencilla. Por ejemplo, la relación entre el nivel de motivación y la efectividad del desempeño de la tarea puede ser curvilínea (Figura 1). Con un aumento en la motivación, primero aumenta la eficiencia de la tarea, luego se logra el nivel óptimo de motivación, que corresponde a la máxima eficiencia de la tarea; un mayor aumento de la motivación ya va acompañado de una disminución de la eficiencia.

Figura 1 - La relación entre la eficacia de la resolución del problema y la fuerza de la tendencia motivacional

En la dirección de la correlación, la conexión puede ser positiva ("directa") y negativa ("inversa"). Con una correlación de línea recta positiva, los valores más altos de una característica corresponden a más valores altos el otro, y los valores más bajos de una característica son los valores bajos de la otra (Figura 2). Con una correlación negativa, las razones se invierten (Figura 3). Con una correlación positiva, el coeficiente de correlación tiene un signo positivo, con una correlación negativa, un signo negativo.

Figura 2 - Correlación directa

Figura 3 - Correlación inversa


Figura 4 - Falta de correlación

El grado, la fuerza o la rigidez de la correlación se determina mediante el valor del coeficiente de correlación. La fuerza de la conexión no depende de su dirección y está determinada por el valor absoluto del coeficiente de correlación.

1.2 Clasificación general de correlaciones

Dependiendo del coeficiente de correlación, se distinguen las siguientes correlaciones:

Fuerte o apretado con un coeficiente de correlación r> 0,70;

Promedio (en 0.50

Moderado (a 0,30

Débil (a 0,20

Muy débil (en r<0,19).

1.3 Campos de correlación y propósito de su construcción

La correlación se estudia sobre la base de datos experimentales, que son valores medidos (x i, y i) de dos características. Si los datos experimentales son pocos, entonces la distribución empírica bivariada se representa como una serie doble de valores x i y y i. En este caso, la dependencia de la correlación entre las características se puede describir de diferentes formas. La correspondencia entre un argumento y una función se puede especificar mediante una tabla, fórmula, gráfico, etc.

El análisis de correlación, al igual que otros métodos estadísticos, se basa en el uso de modelos probabilísticos que describen el comportamiento de los rasgos estudiados en una determinada población general, a partir de la cual se obtienen los valores experimentales x i e y i. Cuando se investiga la correlación entre características cuantitativas, cuyos valores se pueden medir con precisión en unidades de escalas métricas (metros, segundos, kilogramos, etc.), el modelo de una población general bidimensional normalmente distribuida es muy a menudo adoptado. Dicho modelo muestra la relación entre las variables x i e y i gráficamente en forma de un lugar geométrico de puntos en un sistema de coordenadas rectangular. Este gráfico también se denomina gráfico de dispersión o campo de correlación.
Este modelo de distribución normal bidimensional (campo de correlación) le permite dar una interpretación gráfica visual del coeficiente de correlación, ya que la distribución en el agregado depende de cinco parámetros: μ x, μ y - valores medios (expectativas matemáticas); σ x, σ y son las desviaciones estándar de las variables aleatorias X e Y yp es el coeficiente de correlación, que es una medida de la relación entre las variables aleatorias X e Y.
Si p = 0, entonces los valores, x i, y i, obtenidos de una población normal bidimensional, se ubican en el gráfico en las coordenadas x, y dentro del área delimitada por un círculo (Figura 5, a). En este caso, no existe correlación entre las variables aleatorias X e Y y se denominan no correlacionadas. Para una distribución normal bivariada, la falta de correlación significa al mismo tiempo la independencia de las variables aleatorias X e Y.

Comparta con amigos o guárdelo para usted mismo:

Cargando...