Коефіцієнт кореляції дорівнює 1 означає. Як розрахувати лінійний коефіцієнт кореляції

Регресійний аналіз дозволяє оцінити, як одна змінна залежить від іншої і який розкид значень залежної змінної навколо прямої, що визначає залежність. Ці оцінки та відповідні довірчі інтервали дозволяють передбачити значення залежної змінної та визначити точність цього передбачення.

Результати регресійного аналізу можна лише у досить складної цифрової чи графічної формі. Однак нас часто цікавить не передбачення значення однієї змінної за значенням іншої, а просто характеристика тісноти (сили) зв'язку між ними, при цьому виражена одним числом.

Ця характеристика називається коефіцієнтом кореляції, зазвичай її позначають буквою р. Коефіцієнт кореляції мо-

ж приймати значення від -1 до +1. Знак коефіцієнта кореляції показує напрямок зв'язку (пряма чи зворотна), а абсолютна величина - тісноту зв'язку. Коефіцієнт, рівний -1, визначає настільки ж жорсткий зв'язок, що і рівний 1. Відсутність зв'язку коефіцієнт кореляції дорівнює нулю.

На рис. 8.10 наведено приклади залежностей та відповідні їм значення р. Ми розглянемо два коефіцієнти кореляції.

Коефіцієнт кореляції Пірсона призначений для опису лінійного зв'язку кількісних ознак; як і регресії
ний аналіз, він вимагає нормальності розподілу. Коли говорять просто про «коефіцієнт кореляції», майже завжди мають на увазі коефіцієнт кореляції Пірсона, саме так ми й чинитимемо.

Коефіцієнт рангової кореляції Спірмена можна використовувати, коли зв'язок нелінійний і не тільки для кількісних, але і для порядкових ознак. Це непараметричний метод, він не вимагає певного типу розподілу.

Про кількісні, якісні та порядкові ознаки ми вже говорили в гол. 5. Кількісні ознаки - це звичайні числові дані, такі як зростання, вага, температура. Значення кількісної ознаки можна порівняти між собою і сказати, яке з них більше, на скільки і скільки разів. Наприклад, якщо один марсіанин важить 15 г, а інший 10, то перший важчий за другий і в півтора рази і на 5 г. Значення порядкової ознаки теж можна порівняти, сказавши, яке з них більше, але не можна сказати, ні на скільки, ні в скільки разів. У медицині порядкові ознаки трапляються досить часто. Наприклад, результати дослідження піхвового мазка за Папаніколау оцінюють за такою шкалою: 1) норма; 2) легка дисплазія; 3) помірна дисплазія; 4) важка дисплазія; 5) рак in situ. І кількісні, і порядкові ознаки можна розташувати по порядку - на цій загальній властивості заснована велика група непараметричних критеріїв, до яких належить коефіцієнт рангової кореляції Спірмена. З іншими непараметричними критеріями ми познайомимося в гол. 10.

Коефіцієнт кореляції Пірсона

І все-таки, чому для опису тісноти зв'язку не можна скористатися регресійним аналізом? Як міра тісноти зв'язку можна було б використовувати залишкове стандартне відхилення. Однак якщо поміняти місцями залежну та незалежну змінні, то залишкове стандартне відхилення, як і інші показники регресійного аналізу, буде іншим.

Погляньмо на рис. 8.11. За відомою нам вибіркою з 10 марсіан збудовано дві лінії регресії. В одному випадку вага – залежна змінна, у другому – незалежна. Лінії регресії помітно різняться.



20

Якщо поміняти місцями х і у, рівняння регресії вийде іншим, а коефіцієнт кореляції залишиться колишнім.

чаются. Виходить, що зв'язок зростання з вагою одна, а ваги зі зростанням – інша. Асиметричність регресійного аналізу – ось що заважає безпосередньо використовувати його для характеристики сили зв'язку. Коефіцієнт кореляції, хоча його ідея випливає з регресійного аналізу, вільний від цього недоліку. Наводимо формулу.

r Y(X-X)(Y-Y)

&((- X) S(y - Y)2"

де X і Y - середні значення змінних X і Y. Вираз для r «симетрично»-помінявши місцями Xі Y, ми отримаємо ту саму величину. Коефіцієнт кореляції набуває значення від -1 до +1. Чим тісніше зв'язок, тим більша абсолютна величина коефіцієнта кореляції. Знак показує напрямок зв'язку. При r > 0 говорять про пряму кореляцію (зі збільшенням однієї змінної інша також зростає), при r Візьмемо приклад із 10 марсіанами, який ми вже розглядали з погляду регресійного аналізу. Обчислимо коефіцієнт кореляції. Вихідні дані та проміжні результати обчислень наведені в табл. 8.3. Обсяг вибірки n = 10, середнє зростання

X = £ X/n = 369/10 = 36,9 і вага Y = £ Y/n = 103,8/10 = 10,38.

Знаходимо Щ-X) (Y-Y) = 99,9, Щ-X) 2 = 224,8, £ (Y - Y) 2 = 51,9.

Підставимо отримані значення формулу для коефіцієнта кореляції:

224,8 х 51,9 ' "

Величина r близька до 1, що говорить про тісний зв'язок зростання та ваги. Щоб краще уявити собі, який коефіцієнт кореляції слід вважати великим, а який незначним, поглянь-

Таблиця 8.3. Обчислення коефіцієнта кореляції
X Y X-X Y-Y (X-X)(Y-Y) (X-X)2 (Y-Y)2
31 7,8 -5,9 -2,6 15,3 34,8 6,8
32 8,3 -4,9 -2,1 10,3 24,0 4,4
33 7,6 -3,9 -2,8 10,9 15,2 7,8
34 9,1 -2,9 -1,3 3,8 8,4 1,7
35 9,6 -1,9 -0,8 1,5 3,6 0,6
35 9,8 -1,9 -0,6 1,1 3,6 0,4
40 11,8 3,1 1,4 4,3 9,6 2,0
41 12,1 4,1 1,7 7,0 16,8 2,9
42 14,7 5,1 4,3 22,0 26,0 18,5
46 13,0 9,1 2,6 23,7 82,8 6,8
369 103,8 0,0 0,2 99,9 224,8 51,9


ті на табл. 8.4 – у ній наведені коефіцієнти кореляції для прикладів, які ми розбирали раніше.

Зв'язок регресії та кореляції

Усі приклади коефіцієнтів кореляції (табл. 8.4) ми використовували спочатку для побудови ліній регресії. Дійсно, між коефіцієнтом кореляції та параметрами регресійного аналізу існує тісний зв'язок, який ми зараз продемонструємо. Різні способи подання коефіцієнта кореляції, які ми при цьому отримаємо, дозволять краще зрозуміти зміст цього показника.

Згадаймо, що рівняння регресії будується те щоб мінімізувати суму квадратів відхилень від лінії регресії.


Позначимо цю мінімальну суму квадратів S (цю величину називають залишковою сумою квадратів). Суму квадратів відхилень значень залежної змінної Y від її середнього Y позначимо S^. Тоді:

Величина г2 називається коефіцієнтом детермінації – це просто квадрат коефіцієнта кореляції. Коефіцієнт детермінації показує силу зв'язку, але з її спрямованість.

З наведеної формули видно, що якщо значення залежної змінної лежать на прямій регресії, то S = 0 і тим самим r = +1 або r = -1, тобто існує лінійний зв'язок залежної та незалежної змінної. За будь-яким значенням незалежної змінної можна точно передбачити значення залежної змінної. Навпаки, якщо змінні взагалі пов'язані між собою, то Soci = SofSisi Тоді r = 0.

Видно також, що коефіцієнт детермінації дорівнює тій частці загальної дисперсії S, яка обумовлена ​​або, як кажуть, пояснюється лінійною регресією.

Залишкова сума квадратів S пов'язана з залишковою дисперсією s2yx співвідношенням Socj = (п - 2) s ^, а загальна сума квадратів S з дисперсією s2 співвідношенням S = (п - 1) s2 . В такому випадку

r2 = 1 _ n _ 2 sy\x п _1 sy

Ця формула дозволяє судити про залежність коефіцієнта кореляції від частки залишкової дисперсії до повної дисперсії.

six/s2y Чим ця частка менша, тим більший (за абсолютною величиною) коефіцієнт кореляції, і навпаки.

Ми переконалися, що коефіцієнт кореляції відбиває тісноту лінійного зв'язку змінних. Однак якщо йдеться про передбачення значення однієї змінної за значенням іншої, на
Коефіцієнт кореляції не слід занадто покладатися. Наприклад, даним на рис. 8.7 відповідає дуже високий коефіцієнт кореляції (г = 0,92), проте ширина довірчої області значень показує, що невизначеність передбачення є досить значною. Тому навіть за великого коефіцієнта кореляції обов'язково обчисліть довірчу область значень.


І під кінець наведемо співвідношення коефіцієнта кореляції та коефіцієнта нахилу прямої регресії b:

де b – коефіцієнт нахилу прямої регресії, sx та sY – стандартні відхилення змінних.

Якщо не брати до уваги випадок sx = 0, то коефіцієнт кореляції дорівнює нулю і тоді, коли b = 0. Цим фактом ми зараз і скористаємося для оцінки статистичної значущості кореляції.

Статистична значимість кореляції

Оскільки з b = 0 випливає г = 0, гіпотеза про відсутність кореляції рівнозначна гіпотезі про нульовий нахил прямої регресії. Тому для оцінки статистичної значущості кореляції можна скористатися відомою нам формулою для оцінки статистичної значущості відмінності b від нуля:

Тут число ступенів свободи v = n – 2. Однак якщо коефіцієнт кореляції вже обчислений, зручніше скористатися формулою:

Число ступенів свободи тут також v = п - 2.

При зовнішній відмінності двох формул для t вони тотожні. Справді, з того, що


r 2 _ 1 - n_ 2 Sy]x_

Підставивши значення sy^x у формулу для стандартної помилки

Тваринний жир та рак молочної залози

У дослідах на лабораторних тваринах показано, що високий вміст тваринного жиру в раціоні підвищує ризик раку молочної залози. Чи спостерігається ця залежність у людей? К. Керрол зібрав дані про споживання тваринних жирів та смертність від раку молочної залози по 39 країнах. Результат подано на рис. 8.12А. Коефіцієнт кореляції між споживанням тваринних жирів і смертністю від раку молочної залози дорівнював 0,90. Оцінимо статистичну значущість кореляції.

0,90 1 - 0,902 39 - 2

Критичне значення t при числі ступенів свободи v = 39 - 2 = 37 дорівнює 3,574, тобто менше отриманого нами. Таким чином, при рівні значущості 0,001 можна стверджувати, що існує кореляція між споживанням тваринних жирів та смертністю від раку молочної залози.

Тепер перевіримо, чи пов'язана смертність із споживанням рослинних жирів? Відповідні дані наведено на рис. 8.12Б. Коефіцієнт кореляції дорівнює 0,15. Тоді

1 - 0,152 39 - 2

Навіть за рівня значимості 0,10 обчислене значення t менше критичного. Кореляція статистично не значуща.

Коефіцієнт кореляції – це ступінь зв'язку між двома змінними. Його розрахунок дає уявлення про те, чи є залежність між двома масивами даних. На відміну від регресії, кореляція дозволяє прогнозувати значення величин. Проте розрахунок коефіцієнта є важливим етапом попереднього статистичного аналізу. Наприклад, ми встановили, що коефіцієнт кореляції між рівнем прямих іноземних інвестицій та темпом зростання ВВП є високим. Це дає нам уявлення, що для забезпечення добробуту потрібно створити сприятливий клімат саме для зарубіжних підприємців. Не такий і очевидний висновок на перший погляд!

Кореляція та причинність

Мабуть, немає жодної сфери статистики, яка б так міцно увійшла до нашого життя. Коефіцієнт кореляції використовується у всіх галузях суспільних знань. Основна його небезпека полягає в тому, що найчастіше його високими значеннями спекулюють для того, щоб переконати людей та змусити їх повірити у якісь висновки. Однак насправді сильна кореляція аж ніяк не свідчить про причинно-наслідкову залежність між величинами.

Коефіцієнт кореляції: формула Пірсона та Спірмана

Існує кілька основних показників, що характеризують зв'язок між двома змінними. Історично першим є коефіцієнт лінійної кореляції Пірсона. Його проходять ще у школі. Він був розроблений К. Пірсоном та Дж. Юлом на основі робіт Фр. Гальтон. Цей коефіцієнт дозволяє побачити взаємозв'язок між раціональними числами, що змінюються раціонально. Він завжди більше -1 і менше 1. Негативно число свідчить про обернено пропорційну залежність. Якщо коефіцієнт дорівнює нулю, зв'язку між змінними немає. дорівнює позитивному числу - має місце прямо пропорційна залежність між досліджуваними величинами. Коефіцієнт рангової кореляції Спірмана дозволяє спростити розрахунки з допомогою побудови ієрархії значень змінних.

Відносини між змінними

Кореляція допомагає знайти відповідь на два питання. По-перше, чи є зв'язок між змінними позитивним чи негативним. По-друге, наскільки сильна залежність. Кореляційний аналіз є потужним інструментом, за допомогою якого можна отримати цю важливу інформацію. Легко побачити, що сімейні доходи та витрати падають і зростають пропорційно. Такий зв'язок вважається позитивним. Навпаки, у разі зростання ціни на товар, попит на нього падає. Такий зв'язок називають негативним. Значення коефіцієнта кореляції перебувають у межах між -1 і 1. Нуль означає, що залежність між досліджуваними величинами немає. Чим ближче отриманий показник до крайніх значень, тим сильніший зв'язок (негативний або позитивний). Про відсутність залежності свідчить коефіцієнт від -01 до 01. Потрібно розуміти, що таке значення свідчить лише про відсутність лінійного зв'язку.

Особливості застосування

Використання обох показників пов'язане з певними припущеннями. По-перше, наявність сильного зв'язку не обумовлює того факту, що одна величина визначає іншу. Цілком може бути третя величина, яка визначає кожну з них. По-друге, високий коефіцієнт кореляції Пірсона не свідчить про причинно-наслідковий зв'язок між змінними, що досліджуються. По-третє, він показує виключно лінійну залежність. Кореляція може бути використана для оцінки значних кількісних даних (наприклад, атмосферного тиску, температури повітря), а не таких категорій, як підлога або улюблений колір.

Множинний коефіцієнт кореляції

Пірсон та Спірман досліджували зв'язок між двома змінними. Але як діяти у тому випадку, якщо їх три чи навіть більше. Тут на допомогу приходить множинний коефіцієнт кореляції. Наприклад, на валовий національний продукт впливають не лише прямі іноземні інвестиції, а й монетарна та фіскальна політика держави, а також рівень експорту. Темп зростання та обсяг ВВП - це результат взаємодії цілого ряду факторів. Однак треба розуміти, що модель множинної кореляції ґрунтується на цілій низці спрощень та припущень. По-перше, виключається мультиколлінеарність між величинами. По-друге, зв'язок між залежним і такими, що надають вплив змінними, вважається лінійним.

Області використання кореляційно-регресійного аналізу

Даний метод знаходження взаємозв'язку між величинами широко застосовується у статистиці. До нього найчастіше вдаються у трьох основних випадках:

  1. Для тестування причинно-наслідкових зв'язків між значеннями двох змінних. В результаті дослідник сподівається виявити лінійну залежність та вивести формулу, яка описує ці відносини між величинами. Одиниці їх виміру можуть бути різними.
  2. Для перевірки зв'язку між величинами. І тут ніхто не визначає, яка змінна є залежною. Може виявитися, що значення обох величин зумовлює якийсь інший фактор.
  3. Для виведення рівняння. У цьому випадку можна просто підставити в нього числа і дізнатися про значення невідомої змінної.

Людина у пошуках причинно-наслідкового зв'язку

Свідомість влаштована таким чином, що нам обов'язково потрібно пояснити події, що відбуваються довкола. Людина завжди шукає зв'язок між картиною світу, в якому вона живе, та одержуваною інформацією. Часто мозок створює порядок із хаосу. Він запросто може побачити причинно-наслідковий зв'язок там, де його немає. Вченим доводиться спеціально вчитися долати цю тенденцію. Здатність оцінювати зв'язки між даними об'єктивно необхідна в академічній кар'єрі.

Упередженість засобів масової інформації

Розглянемо, як кореляційного зв'язку може бути неправильно витлумачено. Групу британських студентів, які відрізняються поганою поведінкою, опитали щодо того, чи курять їхні батьки. Потім тест опублікували у газеті. Результат показав сильну кореляцію між курінням батьків та правопорушеннями їхніх дітей. Професор, який проводив це дослідження, навіть запропонував помістити на пачки цигарок попередження про це. Однак існує ціла низка проблем з таким висновком. По-перше, кореляція не показує, яка із величин є незалежною. Тому можна припустити, що згубна звичка батьків викликана непослухом дітей. По-друге, не можна з упевненістю сказати, що обидві проблеми не виникли через якийсь третій чинник. Наприклад, низький доход сімей. Слід зазначити емоційний аспект початкових висновків професора, який проводив дослідження. Він був затятим противником куріння. Тому немає нічого дивного у тому, що він інтерпретував результати свого дослідження саме так.

Висновки

Неправильне тлумачення кореляції як причинно-наслідкового зв'язку між двома змінними може спричинити ганебні помилки в дослідженнях. Проблема полягає в тому, що воно лежить в основі людської свідомості. Багато маркетингових трюків побудовано саме на цій особливості. Розуміння відмінності між причинно-наслідковим зв'язком та кореляцією дозволяє раціонально аналізувати інформацію як у повсякденному житті, так і у професійній кар'єрі.

Коефіцієнт кореляції- Це величина, яка може варіювати в межах від +1 до -1. У разі повної позитивної кореляції цей коефіцієнт дорівнює плюс 1 (говорять про те, що при збільшенні значення однієї змінної збільшується значення іншої змінної), а при повній негативній – мінус 1 (свідчать про зворотний зв'язок, тобто При збільшенні значень однієї змінної, значення іншої зменшуються).

Пр1.:

Графік залежності сором'язливості та дипресивності. Як бачимо, точки (випробувані) розташовані не хаотично, а вишиковуються навколо однієї лінії, причому, дивлячись на цю лінію можна сказати, що чим у людини виражена сором'язливість, тим більше депресивність, тобто ці явища взаємопов'язані.

Пр2.: Графік для Сором'язливості та Комунікабельності. Ми бачимо, що зі збільшенням сором'язливості товариськість зменшується. Їхній коефіцієнт кореляції -0,43. Таким чином, коефіцієнт кореляції більший від 0 до 1 говорить про прямопропорційний зв'язок (що більше… тим більше…), а коефіцієнт від -1 до 0 про зворотно-пропорційний (що більше… тим менше…)

Якщо коефіцієнт кореляції дорівнює 0, обидві змінні повністю незалежні один від одного.

Кореляційний зв'язок- це зв'язок, де вплив окремих чинників проявляється лише як тенденція (загалом) при масовому спостереженні фактичних даних. Прикладами кореляційної залежності можуть бути залежності між розмірами активів банку та сумою прибутку банку, зростанням продуктивності праці та стажем роботи працівників.

Використовується дві системи класифікації кореляційних зв'язків за їх силою: загальна та приватна.

Загальна класифікація кореляційних зв'язків: 1) сильна або тісна при коефіцієнті кореляції r> 0,70; 2) середня при 0,500,70, а не просто кореляція високого рівня значущості.

У наведеній нижче таблиці написані назви коефіцієнтів кореляції для різних типів шкал.

Дихотомічна шкала (1/0) Рангова (порядкова) шкала
Дихотомічна шкала (1/0) Коефіцієнт асоціації Пірсона, коефіцієнт чотириклітинної сполученості Пірсона. Бісеріальна кореляція
Рангова (порядкова) шкала Рангово-бісеріальна кореляція. Ранговий коефіцієнт кореляції Спірмена чи Кендала.
Інтервальна та абсолютна шкала Бісеріальна кореляція Значення інтервальної шкали перетворюються на ранги і використовується ранговий коефіцієнт Коефіцієнт кореляції Пірсона (коефіцієнт лінійної кореляції)

При r=0 лінійний кореляційний зв'язок відсутній. У цьому групові середні змінних збігаються зі своїми загальними середніми, а лінії регресії паралельні осям координат.

Рівність r=0 говорить лише про відсутність лінійної кореляційної залежності (некорелювання змінних), але не взагалі про відсутність кореляційної, а тим більше, статистичної залежності.

Іноді висновок про відсутність кореляції важливіше за наявність сильної кореляції. Нульова кореляція двох змінних може свідчити, що жодного впливу однієї змінної іншу немає, за умови, що ми довіряємо результатам вимірів.

У SPSS: 11.3.2 Коефіцієнти кореляції

Досі ми з'ясовували лише сам факт існування статистичної залежності між двома ознаками. Далі ми спробуємо з'ясувати, які висновки можна зробити про силу чи слабкість цієї залежності, а також про її вид та спрямованість. Критерії кількісної оцінки залежності між змінними називаються коефіцієнтами кореляції чи заходами зв'язаності. Дві змінні корелюють між собою позитивно, якщо між ними існує пряме, односпрямоване співвідношення. При односпрямованому співвідношенні малі значення однієї змінної відповідають малим значенням іншої змінної, більші значення – більшим. Дві змінні корелюють між собою негативно, якщо між ними існує зворотне, різноспрямоване співвідношення. При різноспрямованому співвідношенні малі значення однієї змінної відповідають більшим значенням іншої змінної та навпаки. Значення коефіцієнтів кореляції завжди лежать у діапазоні від -1 до +1.

Як коефіцієнт кореляції між змінними, що належать порядковій шкалі, застосовується коефіцієнт Спірмена, а для змінних, що належать до інтервальної шкали - коефіцієнт кореляції Пірсона (момент творів). При цьому слід врахувати, що кожну дихотомічну змінну, тобто змінну, що належить до номінальної шкали та має дві категорії, можна розглядати як порядкову.

Для початку ми перевіримо, чи існує кореляція між змінними sex і psyche з файлу studium.sav. При цьому ми врахуємо, що дихотомічну змінну sex можна вважати порядковою. Виконайте наступні дії:

· Виберіть у меню команди Analyze (Аналіз) Descriptive Statistics (Дескриптивні статистики) Crosstabs... (Таблиці сполучення)

· Перенесіть змінну sex до списку рядків, а змінну psyche – до списку стовпців.

· Натисніть кнопку Statistics... (Статистика). У діалозі Crosstabs: Statistics встановіть прапорець Correlations (Кореляції). Виберіть кнопкою Continue.

· У діалозі Crosstabs відмовтеся від виведення таблиць, встановивши прапорець Supress tables (Пригнічувати таблиці). Натисніть кнопку ОК.

Буде обчислено коефіцієнти кореляції Спірмена та Пірсона, а також проведено перевірку їх значущості:

/ СПСС 10

Завдання №10 Кореляційний аналіз

Поняття кореляції

Кореляція чи коефіцієнт кореляції – це статистичний показник імовірніснийзв'язку між двома змінними, виміряними за кількісними шкалами. На відміну від функціонального зв'язку, при якому кожному значенню однієї змінної відповідає суворо визначенезначення іншої змінної, імовірнісний зв'язокхарактеризується тим, що кожному значенню однієї змінної відповідає безліч значеньІншою змінною, Прикладом імовірнісного зв'язку є зв'язок між зростанням і вагою людей. Зрозуміло, що те саме зростання може бути у людей різної ваги і навпаки.

Кореляція є величиною, укладеною в межах від -1 до + 1, і позначається буквою r. Причому, якщо значення знаходиться ближче до 1, це означає наявність сильного зв'язку, а якщо ближче до 0, то слабкої. Значення кореляції менше 0,2 сприймається як слабка кореляція, понад 0,5 – висока. Якщо коефіцієнт кореляції негативний, це означає наявність зворотний зв'язок: що стоїть значення однієї змінної, то нижче значення інший.

Залежно від значень коефіцієнта r, що приймаються, можна виділити різні види кореляції:

Сувора позитивна кореляціявизначається значенням r = 1. Термін «строга» означає, що значення однієї змінної однозначно визначаються значеннями іншої змінної, а термін « позитивна» -що зі зростанням значень однієї змінної значення інший змінної також зростають.

Сувора кореляція є математичною абстракцією і мало зустрічається у реальних дослідженнях.

Позитивна кореляціявідповідає значенням 0

Відсутність кореляціївизначається значенням r = 0. Нульовий коефіцієнт кореляції свідчить, що значення змінних не пов'язані між собою.

Відсутність кореляції H o : 0 r xy =0 формулюється як відображення нульовийгіпотези у кореляційному аналізі.

Негативна кореляція: -1

Сувора негативна кореляціявизначається значенням r = -1. Вона також, як і сувора позитивна кореляція, є абстракцією і не знаходить вираження у практичних дослідженнях.

Таблиця 1

Види кореляції та їх визначення

Метод обчислення коефіцієнта кореляції залежить від виду шкали, за якою виміряно значення змінної.

Коефіцієнт кореляції rПірсонає основним і може використовуватися для змінних з номінальною та частково впорядкованою, інтервальною шкалою, розподіл значень за якими відповідає нормальному (кореляція моментів твору). Коефіцієнт кореляції Пірсона дає досить точні результати у випадках анормальних розподілів.

Для розподілів, які не є нормальними, краще користуватися коефіцієнтами рангової кореляції Спірмена і Кендала. Ранговими вони є тому, що програма попередньо ранжує змінні, що корелюються.

Кореляцію rСпірмена програма SPSS обчислює наступним чином: спочатку змінні переводяться в ранги, а потім до рангів застосовується формула Пірсона.

В основі кореляції, запропонованої М. Кендал, лежить ідея про те, що про напрям зв'язку можна судити, попарно порівнюючи між собою піддослідних. Якщо у пари змінюються по Х збігаються у напрямку зі зміною по Yзбігається, то це свідчить про позитивний зв'язок. Якщо не збігається – то про негативний зв'язок. Цей коефіцієнт застосовується переважно психологами, які працюють із малими вибірками. Оскільки соціологи працюють із великими масивами даних, то перебір пар, виявлення різниці відносних частот та інверсій всіх пар випробуваних у вибірці скрутний. Найбільш поширеним є коеф. Пірсона.

Оскільки коефіцієнт кореляції rПірсона є основним і може використовуватися (з деякою похибкою залежно від типу шкали та рівня анормальності у розподілі) для всіх змінних, виміряних за кількісними шкалами, розглянемо приклади його використання та порівняємо отримані результати з результатами вимірювань за іншими коефіцієнтами кореляції.

Формула обчислення коефіцієнта r- Пірсона:

r xy = ∑ (Xi-Xср)∙(Yi-Yср) / (N-1)∙σ x ∙σ y ∙

Де: Xi, Yi- Значення двох змінних;

Xср, Yср-середні значення двох змінних;

σ x , σ y – стандартні відхилення,

N-кількість спостережень.

Парні кореляції

Наприклад, ми хотіли б з'ясувати, як співвідносяться відповіді між різними видами традиційних цінностей у уявленнях студентів про ідеальне місце роботи (змінні: а9.1, а9.3, а9.5, а9.7), а потім про співвідношення ліберальних цінностей (а9 .2, а9.4, а9.6, а9.8) . Дані змінні виміряні за 5 – членними впорядкованими шкалами.

Використовуємо процедуру: «Аналіз», «Кореляції», «Парні». За замовчуванням коеф. Пірсона встановлений у діалоговому вікні. Використовуємо коеф. Пірсона

У вікно відбору переносяться змінні, що тестуються: а9.1, а9.3, а9.5, а9.7

Шляхом натискання ОК отримуємо розрахунок:

Кореляції

а9.1.т. Наскільки важливо мати достатньо часу для сім'ї та особистого життя?

Кореляція Пірсона

Знч.(2-сторон)

а9.3.т. Наскільки важливо не боятися втратити свою роботу?

Кореляція Пірсона

Знч.(2-сторон)

а9.5.т. Наскільки важливо мати такого начальника, який радитиметься з Вами, приймаючи те чи інше рішення?

Кореляція Пірсона

Знч.(2-сторон)

а9.7.т. Наскільки важливо працювати у злагодженому колективі, відчувати себе його частиною?

Кореляція Пірсона

Знч.(2-сторон)

** Кореляція значуща лише на рівні 0.01 (2-сторон.).

Таблиця кількісних значень побудованої кореляційної матриці

Приватні кореляції:

Для початку збудуємо парну кореляцію між зазначеними двома змінними:

Кореляції

с8. Відчувають близькість із тими, хто живе поруч із вами, сусідами

Кореляція Пірсона

Знч.(2-сторон)

с12. Відчувають близькість зі своєю родиною

Кореляція Пірсона

Знч.(2-сторон)

**. Кореляція значуща лише на рівні 0.01 (2-сторон.).

Потім використовуємо процедуру побудови приватної кореляції: «Аналіз», «Кореляції», «Приватні».

Припустимо, що цінність «Важливо самостійно визначати та змінювати порядок своєї роботи» у взаємозв'язку із зазначеними змінними виявиться тим вирішальним фактором, під вплив якого раніше виявлений зв'язок зникне, або виявиться малозначимим.

Кореляції

Виключені змінні

с8. Відчувають близькість із тими, хто живе поруч із вами, сусідами

с12. Відчувають близькість зі своєю родиною

с16. Відчувають близькість з людьми, які мають той самий достаток, що й ви

с8. Відчувають близькість із тими, хто живе поруч із вами, сусідами

Кореляція

Значимість (2-сторон.)

с12. Відчувають близькість зі своєю родиною

Кореляція

Значимість (2-сторон.)

Як очевидно з таблиці під впливом контрольної змінної зв'язок дещо знизилася: з 0, 120 до 0, 102. Проте, це зниження зниження дозволяє стверджувати, що рані виявлена ​​зв'язок є відбитком хибної кореляції, т.к. вона залишається досить високою і дозволяє із нульовою похибкою спростовувати нульову гіпотезу.

Коефіцієнт кореляції

Найбільш точний спосіб визначення тісноти та характеру кореляційного зв'язку - знаходження коефіцієнта кореляції. Коефіцієнт кореляції є число, що визначається за формулою:


де r ху – коефіцієнт кореляції;

x i -значення першої ознаки;

у i-значення другої ознаки;

Середня арифметична значень першої ознаки

Середня арифметична значень другої ознаки

Для користування формулою (32) побудуємо таблицю, яка забезпечить необхідну послідовність у підготовці чисел для знаходження чисельника та знаменника коефіцієнта кореляції.

Як видно з формули (32), послідовність дій така: знаходимо середні арифметичні обох ознак х і у, знаходимо різницю між значеннями ознаки та її середньої (х і -) і у і -), потім знаходимо їх добуток (х і -) ( у і - ) – сума останніх дає чисельник коефіцієнта кореляції. Для знаходження його знаменника слід різниці (x i - )і (у і - ) звести в квадрат, знайти їх суми і витягти корінь квадратний з їхнього твору.

Так для прикладу 31 знаходження коефіцієнта кореляції відповідно до формули (32) можна подати наступним чином (табл. 50).

Отримана кількість коефіцієнта кореляції дає змогу встановити наявність, тісноту та характер зв'язку.

1. Якщо коефіцієнт кореляції дорівнює нулю, зв'язок між ознаками відсутній.

2. Якщо коефіцієнт кореляції дорівнює одиниці, зв'язок між ознаками настільки великий, що перетворюється на функціональну.

3. Абсолютна величина коефіцієнта кореляції не виходить за межі інтервалу від нуля до одиниці:

Це дає можливість орієнтуватися на тісноту зв'язку: що величина коефіцієнта ближчі один до нулю, тим зв'язок слабше, ніж ближче до одиниці, тим зв'язок вже.

4. Знак коефіцієнта кореляції "плюс" означає пряму кореляцію, знак "мінус"-зворотну.

Таблиця 50

х і у і (х і -) (у і -) (х і -) (у і -) (х і -) 2 (у і - )2
14,00 12,10 -1,70 -2,30 +3,91 2,89 5,29
14,20 13,80 -1,50 -0,60 +0,90 2,25 0,36
14,90 14,20 -0,80 -0,20 +0,16 0,64 0,04
15,40 13,00 -0,30 -1,40 +0,42 0,09 1,96
16,00 14,60 +0,30 +0,20 +0,06 0,09 0,04
17,20 15,90 +1,50 +2,25 2,25
18,10 17,40 +2,40 +2,00 +4,80 5,76 4,00
109,80 101,00 12,50 13,97 13,94


Таким чином, обчислений прикладі 31 коефіцієнт кореляції r xy = +0,9. дозволяє зробити такі висновки: існує кореляційний зв'язок між величиною м'язової сили правої та лівої кистей у досліджуваних школярів (коефіцієнт r xy =+0,9 відмінний від нуля), зв'язок дуже тісний (коефіцієнт r xy =+0,9 близький до одиниці), кореляція пряма (коефіцієнт r xy = +0,9 позитивний), тобто зі збільшенням м'язової сили однієї з кистей збільшується сила іншого кисті.

При обчисленні коефіцієнта кореляції та користуванні його властивостями слід врахувати, що висновки дають коректні результати в тому випадку, коли ознаки розподілені нормально і розглядається взаємозв'язок між великою кількістю значень обох ознак.

У розглянутому прикладі 31 аналізовано лише 7 значень обох ознак, що, звичайно, недостатньо для подібних досліджень. Нагадуємо тут ще раз, що приклади, у цій книзі взагалі й у цьому розділі зокрема, мають характер ілюстрації методів, а чи не докладного викладу будь-яких наукових експериментів. Внаслідок цього розглянуто невелику кількість значень ознак, виміри округлені - все це робиться для того, щоб громіздкими обчисленнями не затемнювати ідею методу.

Особливу увагу слід звернути на істоту взаємозв'язку, що розглядається. Коефіцієнт кореляції неспроможна призвести до правильних результатів дослідження, якщо аналіз взаємозв'язку між ознаками проводиться формально. Повернемося ще раз до прикладу 31. Обидві розглянуті ознаки являли собою значення м'язової сили правої та лівої кистей. Уявімо, що під ознакою xi у прикладі 31 (14,0; 14,2; 14,9... ...18,1) ми розуміємо довжину випадково спійманих риб у сантиметрах, а під ознакою у і (12,1 ;13,8;14,2... ...17,4) -вага приладів в лабораторії в кілограмах. Формально скориставшись апаратом обчислень знаходження коефіцієнта кореляції і отримавши у разі також r xy =+0>9, ми мали укласти, що з довжиною риб і вагою приладів існує тісний зв'язок прямого характеру. Безглуздість такого висновку очевидна.

Щоб уникнути формального підходу до користування коефіцієнтом кореляції, слід будь-яким іншим методом – математичним, логічним, експериментальним, теоретичним – виявити можливість існування кореляційного зв'язку між ознаками, тобто виявити органічну єдність ознак. Тільки після цього можна приступати до користування кореляційним аналізом та встановлювати величину та характер взаємозв'язку.

У математичній статистиці існує ще поняття множинної кореляції- взаємозв'язку між трьома та більше ознаками. У цих випадках користуються коефіцієнтом множинної кореляції, що складається з парних коефіцієнтів кореляції, описаних вище.

Наприклад, коефіцієнт кореляції трьох ознак-х і , у і , z і - є:

де R xyz -коефіцієнт множинної кореляції, що виражає, як ознака х i залежить від ознак у і і z i;

r xy -коефіцієнт кореляції між ознаками x i та y i;

r xz -коефіцієнт кореляції між ознаками Xi та Zi;

r yz - коефіцієнт кореляції між ознаками y i , z i

Кореляційний аналіз це:

Кореляційний аналіз

Кореляція- статистична взаємозв'язок двох чи кількох випадкових величин (чи величин, які можна з деякою допустимою мірою точності вважати такими). При цьому зміни однієї або декількох з цих величин призводять до систематичної зміни іншої або інших величин. Математичною мірою кореляції двох випадкових величин є коефіцієнт кореляції.

Кореляція може бути позитивною та негативною (можлива також ситуація відсутності статистичного взаємозв'язку - наприклад, для незалежних випадкових величин). Негативна кореляція - кореляція, при якій збільшення однієї змінної пов'язане із зменшенням іншої змінної, при цьому коефіцієнт кореляції негативний. Позитивна кореляція - кореляція, при якій збільшення однієї змінної пов'язане зі збільшенням іншої змінної, при цьому коефіцієнт кореляції є позитивним.

Автокореляція - Статистичний взаємозв'язок між випадковими величинами з одного ряду, але взятих зі зрушенням, наприклад, для випадкового процесу - зі зрушенням за часом.

Метод обробки статистичних даних, що полягає у вивченні коефіцієнтів (кореляції) між змінними, називається кореляційним аналізом.

Коефіцієнт кореляції

Коефіцієнт кореляціїабо парний коефіцієнт кореляціїтеоретично ймовірностей і статистиці - це показник характеру зміни двох випадкових величин. Коефіцієнт кореляції позначається латинською літерою R і може набувати значень між -1 і +1. Якщо значення по модулю знаходиться ближче до 1, це означає наявність сильного зв'язку (при коефіцієнті кореляції рівному одиниці говорять про функціональний зв'язок), а якщо ближче до 0, то слабкої.

Коефіцієнт кореляції Пірсона

Для метричних величин застосовується коефіцієнт кореляції Пірсона, точна формула якого була введена Френсісом Гальтоном:

Нехай X,Y- Дві випадкові величини, визначені на одному імовірнісному просторі. Тоді їхній коефіцієнт кореляції задається формулою:

,

де cov позначає коваріацію, а D - дисперсію, або, що те саме,

,

де символ означає математичне очікування.

Для графічного уявлення подібного зв'язку можна використовувати прямокутну систему координат з осями, які відповідають обох змінних. Кожна пара значень маркується за допомогою певного символу. Такий графік називається "діаграмою розсіювання".

Метод обчислення коефіцієнта кореляції залежить від виду шкали, до якої відносяться змінні. Так, для вимірювання змінних з інтервальною та кількісною шкалами необхідно використовувати коефіцієнт кореляції Пірсона (кореляція моментів творів). Якщо щонайменше одна з двох змінних має порядкову шкалу або не є нормально розподіленою, необхідно використовувати рангову кореляцію Спірмена або τ (тау) Кендалу. У разі коли одна з двох змінних є дихотомічною, використовується точкова дворядна кореляція, а якщо обидві змінні є дихотомічними: чотирипольова кореляція. Розрахунок коефіцієнта кореляції між двома недихотомічними змінними не позбавлений сенсу лише тоді, коли зв'язок між ними лінійний (односпрямований).

Коефіцієнт кореляції Кенделл

Використовується для виміру взаємної невпорядкованості.

Коефіцієнт кореляції Спірмена

Властивості коефіцієнта кореляції

  • Нерівність Коші – Буняковського:
якщо прийняти як скалярний добуток двох випадкових величин коваріацію, то норма випадкової величини дорівнюватиме , і наслідком нерівності Коші - Буняковського буде: . де . Більше того в цьому випадку знаки та kзбігаються: .

Кореляційний аналіз

Кореляційний аналіз- метод обробки статистичних даних, що полягає у вивченні коефіцієнтів ( кореляції) між змінними. При цьому порівнюються коефіцієнти кореляції між однією парою або безліччю пар ознак для встановлення між ними статистичних взаємозв'язків.

Ціль кореляційного аналізу- Забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. У випадках, коли можливе досягнення мети, кажуть, що змінні корелюють. У найзагальнішому вигляді прийняття гіпотези про наявність кореляції означає, що зміна значення змінної А, відбудеться одночасно з пропорційною зміною значення Б: якщо обидві змінні зростають то кореляція позитивнаякщо одна змінна зростає, а друга зменшується, кореляція негативна.

Кореляція відбиває лише лінійну залежність величин, але з відбиває їх функціональної зв'язності. Наприклад, якщо визначити коефіцієнт кореляції між величинами A = sin(x) та B = cos(x), він буде близький до нуля, т. е. залежність між величинами відсутня. Тим часом, величини A і B очевидно пов'язані функціонально згідно із законом sin 2(x) + cos 2(x) = 1.

Обмеження кореляційного аналізу



Графіки розподілу пар (x,y) з відповідними коефіцієнтами кореляцій x та y для кожного з них. Зверніть увагу, що коефіцієнт кореляції відображає лінійну залежність (верхній рядок), але не описує криву залежності (середній рядок) і зовсім не підходить для опису складних, нелінійних залежностей (нижній рядок).
  1. Застосування можливе у разі достатньої кількості випадків вивчення: для конкретного виду коефіцієнта кореляції становить від 25 до 100 пар спостережень.
  2. Друге обмеження випливає з гіпотези кореляційного аналізу, на яку закладено лінійна залежність змінних. У багатьох випадках, коли достовірно відомо, що залежність існує, кореляційний аналіз може не дати результатів просто через те, що залежність нелінійна (виражена, наприклад, у вигляді параболи).
  3. Сам собою факт кореляційної залежності не дає підстави стверджувати, яка зі змінних передує або є причиною змін, або що змінні взагалі причинно пов'язані між собою, наприклад, через дії третього фактора.

Галузь застосування

Даний метод обробки статистичних даних дуже популярний в економіці та соціальних науках (зокрема в психології та соціології), хоча сфера застосування коефіцієнтів кореляції велика: контроль якості промислової продукції, металознавство, агрохімія, гідробіологія, біометрія та інші.

Популярність методу обумовлена ​​двома моментами: коефіцієнти кореляції щодо прості у підрахунку, їх застосування вимагає спеціальної математичної підготовки. У поєднанні з простотою інтерпретації, простота застосування коефіцієнта призвела до його поширення у сфері аналізу статистичних даних.

Хибна кореляція

Часто приваблива простота кореляційного дослідження підштовхує дослідника робити помилкові інтуїтивні висновки про наявність причинно-наслідкового зв'язку між парами ознак, тоді як коефіцієнти кореляції встановлюють лише статистичні взаємозв'язки.

У сучасній кількісній методології соціальних наук, фактично, відбулася відмова від спроб встановити причинно-наслідкові зв'язки між змінними емпіричними методами, що спостерігаються. Тому, коли дослідники в соціальних науках говорять про встановлення взаємозв'язків між змінними, що вивчаються, мається на увазі або загальнотеоретичне припущення, або статистична залежність.

Див. також

  • Автокореляційна функція
  • Взаємнокореляційна функція
  • Коваріація
  • Коефіцієнт детермінації
  • Регресійний аналіз

Wikimedia Foundation. 2010 року.

Кореляція - ступінь зв'язку між двома чи кількома незалежними явищами.

Кореляція буває позитивною та негативною.

Позитивна кореляція (пряма)виникає при одночасному зміні 2-х змінних величин у однакових напрямах (у позитивному чи негативному). Наприклад, взаємозв'язок між кількістю користувачів, що приходять на сайт із пошукової видачі та навантаженням на сервер: чим більше користувачів, тим більше навантаження.

Кореляція негативна (зворотна), якщо зміна однієї величини призводить до протилежної зміни іншої. Наприклад, зі збільшенням податкового навантаження на компанії зменшується їхній прибуток. Що більше податків, то менше грошей на розвиток.

Ефективність кореляції як статистичного інструменту полягає у можливості вираження зв'язку між двома змінними за допомогою коефіцієнта кореляції.

Коефіцієнт кореляції (КК) перебуває у діапазоні чисел від -1 до 1.

При значенні КК рівним 1 слід розуміти, що при кожній зміні 1-ї змінної відбувається еквівалентна зміна 2-ї змінної в тому ж напрямку.


Якщо значення КК дорівнює -1, то при кожній зміні відбувається еквівалентна зміна другої змінної у протилежному напрямку.


Чим ближче кореляція до -1 або 1, тим сильніший зв'язок між змінними. При нульовому значенні (або близьким до 0) значуща зв'язок між двома змінними відсутня або мінімальна.

Даний метод обробки статистичної інформації популярний в економічних, технічних, соціальних та інших науках через простоту підрахунку КК, простоту інтерпретації результатів та відсутність необхідності володіння математикою на високому рівні.

Кореляційна залежність відбиває лише взаємозв'язок між змінними і говорить про причинно-наслідкових зв'язках: позитивна чи негативна кореляція між двома змінними необов'язково означає, що зміна однієї змінної викликає зміна інший.

Наприклад, є позитивна кореляція між збільшенням зарплати менеджерів з продажу та якістю роботи з клієнтами (підвищення якості обслуговування, робота з запереченнями, знання позитивних якостей продукту порівняно з конкурентами) за відповідної мотивації персоналу. Обсяг продажів, що збільшився, а отже і зарплата менеджерів, зовсім не означає, що менеджери покращили якість роботи з клієнтами. Цілком імовірно, що випадково надійшли великі замовлення і були відвантажені або відділ маркетингу збільшив рекламний бюджет або сталося щось.

Можливо існує якась третя змінна, що впливає причину наявності чи відсутності кореляції.

Коефіцієнт кореляції не розраховується:

  • коли співвідношення між двома змінними не лінійне, наприклад, квадратичне;
  • у даних є більше 1-го спостереження щодо кожного випадку;
  • є аномальні спостереження (викиди, відщепенці);
  • дані містять яскраво виражені підгрупи спостережень.

КУРСОВА РОБОТА

Тема: Кореляційний аналіз

Вступ

1. Кореляційний аналіз

1.1 Поняття кореляційного зв'язку

1.2 Загальна класифікація кореляційних зв'язків

1.3 Кореляційні поля та мета їх побудови

1.4 Етапи кореляційного аналізу

1.5 Коефіцієнти кореляції

1.6 Нормований коефіцієнт кореляції Браве-Пірсона

1.7 Коефіцієнт рангової кореляції Спірмена

1.8 Основні властивості коефіцієнтів кореляції

1.9 Перевірка значимості коефіцієнтів кореляції

1.10 Критичні значення коефіцієнта парної кореляції

2. Планування багатофакторного експерименту

2.1 Умова завдання

2.2 Визначення центр плану (основний рівень) та рівня варіювання факторів

2.3 Побудова матриці планування

2.4 Перевірка однорідності дисперсії та рівноточності вимірювання у різних серіях

2.5 Коефіцієнти рівняння регресії

2.6 Дисперсія відтворюваності

2.7 Перевірка значущості коефіцієнтів рівняння регресії

2.8 Перевірка адекватності рівняння регресії

Висновок

Список літератури

ВСТУП

Планування експерименту -математико-статистична дисципліна, що вивчає методи раціональної організації експериментальних досліджень - від оптимального вибору досліджуваних факторів та визначення власне плану експерименту відповідно до його метою до методів аналізу результатів. Початок планування експерименту поклали праці англійського статистика Р.Фішера (1935), який підкреслив, що раціональне планування експерименту дає не менш істотний виграш у точності оцінок, ніж оптимальна обробка результатів вимірювань. У 60-ті роки 20 століття склалася сучасна теорія планування експерименту. Її методи тісно пов'язані з теорією наближення функцій та математичним програмуванням. Побудовано оптимальні плани та досліджено їх властивості для широкого класу моделей.

Планування експерименту – вибір плану експерименту, що задовольняє заданим вимогам, сукупність дій спрямованих розробку стратегії експериментування (від отримання апріорної інформації до отримання працездатної математичної моделі чи визначення оптимальних умов). Це цілеспрямоване управління експериментом, що реалізується в умовах неповного знання механізму явища, що вивчається.

У процесі вимірювань, подальшої обробки даних, а також формалізації результатів у вигляді математичної моделі, виникають похибки і втрачається частина інформації, що міститься у вихідних даних. Застосування методів планування експерименту дозволяє визначити похибку математичної моделі та судити про її адекватність. Якщо точність моделі виявляється недостатньою, то застосування методів планування експерименту дозволяє модернізувати математичну модель з проведенням додаткових дослідів без втрати попередньої інформації та з мінімальними витратами.

Мета планування експерименту – знаходження таких умов та правил проведення дослідів за яких вдається отримати надійну та достовірну інформацію про об'єкт з найменшою витратою праці, а також подати цю інформацію у компактній та зручній формі з кількісною оцінкою точності.

Серед основних методів планування, які застосовуються на різних етапах дослідження, використовують:

Планування експерименту, що відсіює, основне значення якого виділення з усієї сукупності факторів групи істотних факторів, що підлягають подальшому детальному вивченню;

Планування експерименту дисперсійного аналізу, тобто. складання планів для об'єктів із якісними факторами;

Планування регресійного експерименту, що дозволяє отримувати регресійні моделі (поліноміальні та інші);

Планування екстремального експерименту, де головне завдання – експериментальна оптимізація об'єкта дослідження;

Планування щодо динамічних процесів тощо.

Метою вивчення дисципліни є підготовка студентів до виробничо-технічної діяльності за спеціальністю із застосуванням методів теорії планування та сучасних інформаційних технологій.

Завдання дисципліни: вивчення сучасних методів планування, організації та оптимізації наукового та промислового експерименту, проведення експериментів та обробки отриманих результатів.

1. Кореляційний аналіз

1.1 Поняття кореляційного зв'язку

Дослідника нерідко цікавить, як пов'язані між собою дві або більше змінних в одній або кількох досліджуваних вибірках. Наприклад, чи може зростання впливати на вагу людини, чи може тиск впливати на якість продукції?

Такі залежність між змінними величинами називається кореляційної, чи кореляцією. Кореляційний зв'язок - це узгоджена зміна двох ознак, що відображає той факт, що мінливість однієї ознаки знаходиться відповідно до мінливості іншої.

Відомо, наприклад, що в середньому між зростанням людей та їхньою вагою спостерігається позитивний зв'язок, і такий, що чим більше зростання, тим більша вага людини. Однак із цього правила є винятки, коли відносно низькі люди мають надмірну вагу, і, навпаки, астеніки, при високому зростанні мають малу вагу. Причиною подібних винятків і те, кожен біологічний, фізіологічний чи психологічний ознака визначається впливом багатьох чинників: середовищних, генетичних, соціальних, екологічних тощо.

Кореляційні зв'язки - це ймовірні зміни, які можна вивчати тільки на представницьких вибірках методами математичної статистики. Обидва терміни – кореляційний зв'язок та кореляційна залежність – часто використовуються як синоніми. Залежність має на увазі вплив, зв'язок - будь-які узгоджені зміни, які можуть пояснюватися сотнями причин. Кореляційні зв'язки не можуть розглядатися як свідчення причинно-наслідкової залежності, вони свідчать лише про те, що зміни однієї ознаки, як правило, супроводжують певні зміни іншої.

Кореляційна залежність - це зміни, які вносять значення однієї ознаки у ймовірність появи різних значень іншої ознаки.

Завдання кореляційного аналізу зводиться до встановлення напряму (позитивне або негативне) і форми (лінійна, нелінійна) зв'язку між варіюючими ознаками, вимірювання її тісноти, і, нарешті, до перевірки рівня значущості отриманих коефіцієнтів кореляції.

Кореляційні зв'язки розрізняються за формою, напрямом та ступенем (силою) .

За формою кореляційний зв'язок може бути прямолінійним або криволінійним. Прямолінійним може бути, наприклад, зв'язок між кількістю тренувань на тренажері та кількістю правильно розв'язуваних завдань у контрольній сесії. Криволінійною може бути, наприклад, зв'язок між рівнем мотивації та ефективністю виконання завдання (рисунок 1). У разі підвищення мотивації ефективність виконання завдання спочатку зростає, потім досягається оптимальний рівень мотивації, якому відповідає максимальна ефективність виконання завдання; подальшого підвищення мотивації супроводжує зниження ефективності.

Рисунок 1 - Зв'язок між ефективністю розв'язання задачі та силою мотиваційної тенденції

У напрямку кореляційний зв'язок може бути позитивним ("прямий") і негативним ("зворотним"). При позитивній прямолінійній кореляції вищим значенням однієї ознаки відповідають вищі значення іншого, а нижчим значенням однієї ознаки - низькі значення іншого (рисунок 2). При негативній кореляції співвідношення обернені (рисунок 3). При позитивній кореляції коефіцієнт кореляції має позитивний знак, за негативної кореляції - негативний знак.

Малюнок 2 – Пряма кореляція

Рисунок 3 – Зворотна кореляція


Малюнок 4 – Відсутність кореляції

Ступінь, сила чи тіснота кореляційного зв'язку визначається за величиною коефіцієнта кореляції. Сила зв'язку не залежить від її спрямованості та визначається за абсолютним значенням коефіцієнта кореляції.

1.2 Загальна класифікація кореляційних зв'язків

Залежно від коефіцієнта кореляції розрізняють такі кореляційні зв'язки:

Сильна або тісна при коефіцієнті кореляції r>0,70;

Середня (при 0,50

Помірна (при 0,30

Слабка (при 0,20

Дуже слабка (при r<0,19).

1.3 Кореляційні поля та мета їх побудови

Кореляція вивчається виходячи з експериментальних даних, які становлять виміряні значення (x i , y i) двох ознак. Якщо експериментальних даних небагато, то двовимірний емпіричний розподіл представляється як подвійного ряду значень x i і y . У цьому кореляційну залежність між ознаками можна описувати різними способами. Відповідність між аргументом та функцією може бути задана таблицею, формулою, графіком тощо.

Кореляційний аналіз, як і інші статистичні методи, заснований на використанні імовірнісних моделей, що описують поведінку досліджуваних ознак деякої генеральної сукупності, з якої отримані експериментальні значення x i і y . Коли досліджується кореляція між кількісними ознаками, значення яких можна точно виміряти в одиницях метричних шкал (метри, секунди, кілограми тощо), дуже часто приймається модель двовимірної нормально розподіленої генеральної сукупності. Така модель відображає залежність між змінними величинами x i та y i графічно у вигляді геометричного місця точок у системі прямокутних координат. Цю графічну залежність називають також діаграмою розсіювання або кореляційним полем.
Ця модель двовимірного нормального розподілу (кореляційне поле) дозволяє дати наочну графічну інтерпретацію коефіцієнта кореляції, т.к. розподіл у сукупності залежить від п'яти параметрів: μ x , μ y – середні значення (математичні очікування); σ x ,σ y – стандартні відхилення випадкових величин Х та Y та р – коефіцієнт кореляції, який є мірою зв'язку між випадковими величинами Х та Y.
Якщо р = 0, то значення, x i , y i , отримані з двовимірної нормальної сукупності, розташовуються на графіку в координатах х, в межах області, обмеженою колом (рисунок 5, а). У цьому випадку між випадковими величинами Х та Y відсутня кореляція і вони називаються некорельованими. Для двовимірного нормального розподілу некорелювання означає одночасно і незалежність випадкових величин Х і Y.

Поділіться з друзями або збережіть для себе:

Завантаження...