Що таке кореляція у статистиці. Коефіцієнт кореляції – характеристика кореляційної моделі. Як інтерпретувати значення коефіцієнта кореляції Пірсона
![Що таке кореляція у статистиці. Коефіцієнт кореляції – характеристика кореляційної моделі. Як інтерпретувати значення коефіцієнта кореляції Пірсона](https://i2.wp.com/psyfactor.org/lib/i/Image45.gif)
» Статистика
Статистика та обробка даних у психології
(продовження)
Кореляційний аналіз
При вивченні кореляційнамагаються встановити, чи існує якийсь зв'язок між двома показниками в одній вибірці (наприклад, між зростанням та вагою дітей чи між рівнем IQі шкільною успішністю) або між двома різними вибірками (наприклад, при порівнянні пар близнюків), і якщо цей зв'язок існує, то супроводжується збільшення одного показника зростанням (позитивна кореляція) або зменшенням (негативна кореляція) іншого.
Іншими словами, кореляційний аналіз допомагає встановити, чи можна пророкувати можливі значення одного показника, знаючи величину іншого.
Досі при аналізі результатів нашого досвіду вивчення дії марихуани ми свідомо ігнорували такий показник, як час реакції. Тим часом було б цікаво перевірити, чи існує зв'язок між ефективністю реакцій та їхньою швидкістю. Це дозволило б, наприклад, стверджувати, що чим людина повільніша, тим точніше і ефективнішими будуть її дії і навпаки.
З цією метою можна використовувати два різні способи: параметричний метод розрахунку коефіцієнта Браве-Пірсона (r) та обчислення коефіцієнта кореляції рангів Спірмена (rs), який застосовується до порядкових даних, тобто. є непараметричним. Однак спочатку розберемося в тому, що таке коефіцієнт кореляції.
Коефіцієнт кореляції
Коефіцієнт кореляції - це величина, яка може змінюватись в межах від +1 до -1. У разі повної позитивної кореляції цей коефіцієнт дорівнює плюс 1, а за повної негативної - мінус 1. На графіку цьому відповідає пряма лінія, що проходить через точки перетину значень кожної пари даних:
У разі якщо ці точки не вишиковуються по прямій лінії, а утворюють «хмару», коефіцієнт кореляції по абсолютній величині стає менше одиниці і в міру округлення цієї хмари наближається до нуля:
Якщо коефіцієнт кореляції дорівнює 0, обидві змінні повністю незалежні один від одного.
У гуманітарних науках кореляція вважається сильною, якщо її коефіцієнт вищий за 0,60; якщо він перевищує 0,90, то кореляція вважається дуже сильної. Однак для того, щоб можна було робити висновки про зв'язки між змінними, велике значення має обсяг вибірки: чим більша вибірка, тим достовірніша величина отриманого коефіцієнта кореляції. Існують таблиці з критичними значеннями коефіцієнта кореляції Браве-Пірсона і Спірмена для різного числа ступенів свободи (воно дорівнює числу пар за вирахуванням 2, тобто. n- 2). Тільки тому випадку, якщо коефіцієнти кореляції більше цих критичних значень, можуть вважатися достовірними. Так, для того, щоб коефіцієнт кореляції 0,70 був достовірним, в аналіз має бути взято не менше 8 пар даних ( h =n-2=6) при обчисленні r (див. табл. 4 у Додатку) та 7 пар даних (h = n-2= 5) при обчисленні r s (табл. 5 у Додатку).
Хотілося б ще раз наголосити, що сутність цих двох коефіцієнтів дещо різна. Негативний коефіцієнт r вказує на те, що ефективність найчастіше тим вища, чим час реакції менше, тоді як при обчисленні коефіцієнта r s потрібно перевірити, чи завжди швидші випробувані реагують точніше, а повільніші - менш точно.
Коефіцієнт кореляції Браве-Пірсона (r) - це параметричний показник, для обчислення якого порівнюють середні та стандартні відхилення результатів двох вимірювань. При цьому використовують формулу (у різних авторів вона може виглядати по-різному)
де Σ XY -сума творів даних із кожної пари;
n-число пар;
X - середня для даних змінної X;
Y -
середня для даних змінної Y
S x -стандартне відхилення для розподілу х;
S y -стандартне відхилення для розподілу у
Коефіцієнт кореляції рангів Спірмена ( r s ) - це непараметричний показник, з допомогою якого намагаються виявити зв'язок між рангами відповідних величин двох рядах вимірів.
Цей коефіцієнт розраховувати простіше, проте результати виходять менш точними, ніж під час використання r. Це з тим, що з обчисленні коефіцієнта Спірмена використовують порядок прямування даних, а чи не їх кількісні характеристики та інтервали між класами.
Справа в тому, що при використанні коефіцієнта кореляції рангів Спірмена (r s) перевіряють тільки, чи буде ранжування даних для будь-якої вибірки таким же, як і в інших даних для цієї вибірки, попарно пов'язаних з першими (наприклад, будуть однаково « ранжуватися» студенти при проходженні ними як психології, так і математики, або навіть за двох різних викладачів психології?). Якщо коефіцієнт близький до +1, це означає, що обидва ряду практично збігаються, а якщо цей коефіцієнт близький до -1, можна говорити про повну зворотну залежність.
Коефіцієнт r sобчислюють за формулою
де d- Різниця між рангами сполучених значень ознак (незалежно від її знака), а - кількість пар.
Зазвичай цей непараметричний тест використовується в тих випадках, коли потрібно зробити якісь висновки не так про інтервалахміж даними, скільки про них рангах,а також тоді, коли криві розподіли надто асиметричні і не дозволяють використовувати такі параметричні критерії, як коефіцієнт r (у цих випадках буває необхідно перетворити кількісні дані на порядкові).
Резюме
Отже, ми розглянули різні параметричні та непараметричні статистичні методи, що використовуються у психології. Наш огляд був дуже поверховим, і головне завдання його полягало в тому, щоб читач зрозумів, що статистика не така страшна, як здається, і вимагає в основному здорового глузду. Нагадуємо, що дані «досвіду», з якими ми тут мали справу, - вигадані і не можуть бути основою будь-яких висновків. Втім, подібний експеримент варто було б справді провести. Оскільки для цього досвіду було вибрано суто класичну методику, такий самий статистичний аналіз можна було б використати в безлічі різних експериментів. У будь-якому разі нам здається, що ми намітили якісь головні напрямки, які можуть виявитися корисними для тих, хто не знає, з чого розпочати статистичний аналіз отриманих результатів.
Література
- Годфруа Ж.Що таке психологія | - М., 1992.
- Chatillon G., 1977. Statistique en Sciences humaines, Trois-Rivieres, Ed. SMG.
- Gilbert N. 1978. Statistiques, Montreal, Ed. HRW.
- Moroney M.J., 1970. Comprendre la statistique, Verviers, Gerard та Cie.
- Siegel S., 1956. Non-parametric Statistic, New York, MacGraw-Hill Book Co.
Додаток Таблиці
Примітки. 1) Для більших вибірок чи рівня значимості менше 0,05 слід звернутися до таблиць у посібниках зі статистики.
2) Таблиці значень інших непараметричних критеріїв можна знайти у спеціальних посібниках (див. бібліографію).
Таблиця 1. Значення критерію tСтьюдента | |
h | 0,05 |
1 | 6,31 |
2 | 2,92 |
3 | 2,35 |
4 | 2,13 |
5 | 2,02 |
6 | 1,94 |
7 | 1,90 |
8 | 1,86 |
9 | 1,83 |
10 | 1,81 |
11 | 1,80 |
12 | 1,78 |
13 | 1,77 |
14 | 1,76 |
15 | 1,75 |
16 | 1,75 |
17 | 1,74 |
18 | 1,73 |
19 | 1,73 |
20 | 1,73 |
21 | 1,72 |
22 | 1,72 |
23 | 1,71 |
24 | 1,71 |
25 | 1,71 |
26 | 1,71 |
27 | 1,70 |
28 | 1,70 |
29 | 1,70 |
30 | 1,70 |
40 | 1,68 |
¥ | 1,65 |
Таблиця 2. Значення критерію χ 2 | |
h | 0,05 |
1 | 3,84 |
2 | 5,99 |
3 | 7,81 |
4 | 9,49 |
5 | 11,1 |
6 | 12,6 |
7 | 14,1 |
8 | 15,5 |
9 | 16,9 |
10 | 18,3 |
Таблиця 3. Достовірні значення Z | |
р | Z |
0,05 | 1,64 |
0,01 | 2,33 |
Таблиця 4. Достовірні (критичні) значення r | ||
h = (N-2) | р= 0,05 (5%) | |
3 | 0,88 | |
4 | 0,81 | |
5 | 0,75 | |
6 | 0,71 | |
7 | 0,67 | |
8 | 0,63 | |
9 | 0,60 | |
10 | 0,58 | |
11 | 0.55 | |
12 | 0,53 | |
13 | 0,51 | |
14 | 0,50 | |
15 | 0,48 | |
16 | 0,47 | |
17 | 0,46 | |
18 | 0,44 | |
19 | 0,43 | |
20 | 0,42 |
Таблиця 5. Достовірні (критичні) значення r s | |
h = (N-2) | р = 0,05 |
2 | 1,000 |
3 | 0,900 |
4 | 0,829 |
5 | 0,714 |
6 | 0,643 |
7 | 0,600 |
8 | 0,564 |
10 | 0,506 |
12 | 0,456 |
14 | 0,425 |
16 | 0,399 |
18 | 0,377 |
20 | 0,359 |
22 | 0,343 |
24 | 0,329 |
26 | 0,317 |
28 | 0,306 |
Коефіцієнт кореляції- Це величина, яка може варіювати в межах від +1 до -1. У разі повної позитивної кореляції цей коефіцієнт дорівнює плюс 1 (говорять про те, що при збільшенні значення однієї змінної збільшується значення іншої змінної), а при повній негативній – мінус 1 (свідчать про зворотний зв'язок, тобто При збільшенні значень однієї змінної, значення іншої зменшуються).
Пр1.:
Графік залежності сором'язливості та дипресивності. Як бачимо, точки (випробувані) розташовані не хаотично, а вишиковуються навколо однієї лінії, причому, дивлячись на цю лінію можна сказати, що чим у людини виражена сором'язливість, тим більше депресивність, тобто ці явища взаємопов'язані.
Пр2.: Графік для Сором'язливості та Комунікабельності. Ми бачимо, що зі збільшенням сором'язливості товариськість зменшується. Їхній коефіцієнт кореляції -0,43. Таким чином, коефіцієнт кореляції більший від 0 до 1 говорить про прямопропорційний зв'язок (що більше… тим більше…), а коефіцієнт від -1 до 0 про зворотно-пропорційний (що більше… тим менше…)
Якщо коефіцієнт кореляції дорівнює 0, обидві змінні повністю незалежні один від одного.
Кореляційний зв'язок- це зв'язок, де вплив окремих чинників проявляється лише як тенденція (загалом) при масовому спостереженні фактичних даних. Прикладами кореляційної залежності можуть бути залежності між розмірами активів банку та сумою прибутку банку, зростанням продуктивності праці та стажем роботи працівників.
Використовується дві системи класифікації кореляційних зв'язків за їх силою: загальна та приватна.
Загальна класифікація кореляційних зв'язків: 1) сильна або тісна при коефіцієнті кореляції r> 0,70; 2) середня при 0,500,70, а не просто кореляція високого рівня значущості.У наведеній нижче таблиці написані назви коефіцієнтів кореляції для різних типів шкал.
Дихотомічна шкала (1/0) | Рангова (порядкова) шкала | ||
Дихотомічна шкала (1/0) | Коефіцієнт асоціації Пірсона, коефіцієнт чотириклітинної сполученості Пірсона. | Бісеріальна кореляція | |
Рангова (порядкова) шкала | Рангово-бісеріальна кореляція. | Ранговий коефіцієнт кореляції Спірмена чи Кендала. | |
Інтервальна та абсолютна шкала | Бісеріальна кореляція | Значення інтервальної шкали перетворюються на ранги і використовується ранговий коефіцієнт | Коефіцієнт кореляції Пірсона (коефіцієнт лінійної кореляції) |
При r=0 лінійний кореляційний зв'язок відсутній. У цьому групові середні змінних збігаються зі своїми загальними середніми, а лінії регресії паралельні осям координат.
Рівність r=0 говорить лише про відсутність лінійної кореляційної залежності (некорелювання змінних), але не взагалі про відсутність кореляційної, а тим більше, статистичної залежності.
Іноді висновок про відсутність кореляції важливіше за наявність сильної кореляції. Нульова кореляція двох змінних може свідчити, що жодного впливу однієї змінної іншу немає, за умови, що ми довіряємо результатам вимірів.
У SPSS: 11.3.2 Коефіцієнти кореляції
Досі ми з'ясовували лише сам факт існування статистичної залежності між двома ознаками. Далі ми спробуємо з'ясувати, які висновки можна зробити про силу чи слабкість цієї залежності, а також про її вид та спрямованість. Критерії кількісної оцінки залежності між змінними називаються коефіцієнтами кореляції чи заходами зв'язаності. Дві змінні корелюють між собою позитивно, якщо між ними існує пряме, односпрямоване співвідношення. При односпрямованому співвідношенні малі значення однієї змінної відповідають малим значенням іншої змінної, більші значення – більшим. Дві змінні корелюють між собою негативно, якщо між ними існує зворотне, різноспрямоване співвідношення. При різноспрямованому співвідношенні малі значення однієї змінної відповідають більшим значенням іншої змінної та навпаки. Значення коефіцієнтів кореляції завжди лежать у діапазоні від -1 до +1.
Як коефіцієнт кореляції між змінними, що належать порядковій шкалі, застосовується коефіцієнт Спірмена, а для змінних, що належать до інтервальної шкали - коефіцієнт кореляції Пірсона (момент творів). При цьому слід врахувати, що кожну дихотомічну змінну, тобто змінну, що належить до номінальної шкали та має дві категорії, можна розглядати як порядкову.
Для початку ми перевіримо, чи існує кореляція між змінними sex і psyche з файлу studium.sav. При цьому ми врахуємо, що дихотомічну змінну sex можна вважати порядковою. Виконайте наступні дії:
· Виберіть у меню команди Analyze (Аналіз) Descriptive Statistics (Дескриптивні статистики) Crosstabs... (Таблиці сполучення)
· Перенесіть змінну sex до списку рядків, а змінну psyche – до списку стовпців.
· Натисніть кнопку Statistics... (Статистика). У діалозі Crosstabs: Statistics встановіть прапорець Correlations (Кореляції). Виберіть кнопкою Continue.
· У діалозі Crosstabs відмовтеся від виведення таблиць, встановивши прапорець Supress tables (Пригнічувати таблиці). Натисніть кнопку ОК.
Буде обчислено коефіцієнти кореляції Спірмена та Пірсона, а також проведено перевірку їх значущості:
/ СПСС 10
Завдання №10 Кореляційний аналіз
Поняття кореляції
Кореляція чи коефіцієнт кореляції – це статистичний показник імовірніснийзв'язку між двома змінними, виміряними за кількісними шкалами. На відміну від функціонального зв'язку, при якому кожному значенню однієї змінної відповідає суворо визначенезначення іншої змінної, імовірнісний зв'язокхарактеризується тим, що кожному значенню однієї змінної відповідає безліч значеньІншою змінною, Прикладом імовірнісного зв'язку є зв'язок між зростанням і вагою людей. Зрозуміло, що те саме зростання може бути у людей різної ваги і навпаки.
Кореляція є величиною, укладеною в межах від -1 до + 1, і позначається буквою r. Причому, якщо значення знаходиться ближче до 1, це означає наявність сильної зв'язку, і якщо ближче до 0, то слабкої. Значення кореляції менше 0,2 сприймається як слабка кореляція, понад 0,5 – висока. Якщо коефіцієнт кореляції негативний, це означає наявність зворотний зв'язок: що стоїть значення однієї змінної, то нижче значення інший.
Залежно від значень коефіцієнта r, що приймаються, можна виділити різні види кореляції:
Сувора позитивна кореляціявизначається значенням r = 1. Термін «строга» означає, що значення однієї змінної однозначно визначаються значеннями іншої змінної, а термін « позитивна» -що зі зростанням значень однієї змінної значення інший змінної також зростають.
Сувора кореляція є математичною абстракцією і практично не зустрічається у реальних дослідженнях.
Позитивна кореляціявідповідає значенням 0
Відсутність кореляціївизначається значенням r = 0. Нульовий коефіцієнт кореляції свідчить, що значення змінних не пов'язані між собою.
Відсутність кореляції H o : 0 r xy =0 формулюється як відображення нульовийгіпотези у кореляційному аналізі.
Негативна кореляція: -1
Сувора негативна кореляціявизначається значенням r = -1. Вона також, як і сувора позитивна кореляція, є абстракцією і не знаходить вираження у практичних дослідженнях.
Таблиця 1
Види кореляції та їх визначення
Метод обчислення коефіцієнта кореляції залежить від виду шкали, за якою виміряно значення змінної.
Коефіцієнт кореляції rПірсонає основним і може використовуватися для змінних з номінальною та частково впорядкованою, інтервальною шкалою, розподіл значень за якими відповідає нормальному (кореляція моментів твору). Коефіцієнт кореляції Пірсона дає досить точні результати у випадках анормальних розподілів.
Для розподілів, які не є нормальними, краще користуватися коефіцієнтами рангової кореляції Спірмена і Кендала. Ранговими вони є тому, що програма попередньо ранжує змінні, що корелюються.
Кореляцію rСпірмена програмаSPSS обчислює наступним чином: спочатку змінні переводяться в ранги, а потім до рангів застосовується формулаrПірсона.
В основі кореляції, запропонованої М. Кендал, лежить ідея про те, що про напрям зв'язку можна судити, попарно порівнюючи між собою піддослідних. Якщо у пари змінюються по Х збігаються у напрямку зі зміною по Yзбігається, то це свідчить про позитивний зв'язок. Якщо не збігається – то про негативний зв'язок. Цей коефіцієнт застосовується переважно психологами, які працюють із малими вибірками. Оскільки соціологи працюють із великими масивами даних, то перебір пар, виявлення різниці відносних частот та інверсій всіх пар випробуваних у вибірці скрутний. Найбільш поширеним є коеф. Пірсона.
Оскільки коефіцієнт кореляції rПірсона є основним і може використовуватися (з деякою похибкою залежно від типу шкали та рівня анормальності у розподілі) для всіх змінних, виміряних за кількісними шкалами, розглянемо приклади його використання та порівняємо отримані результати з результатами вимірювань за іншими коефіцієнтами кореляції.
Формула обчислення коефіцієнта r- Пірсона:
r xy = ∑ (Xi-Xср)∙(Yi-Yср) / (N-1)∙σ x ∙σ y ∙
Де: Xi, Yi- Значення двох змінних;
Xср, Yср-середні значення двох змінних;
σ x , σ y – стандартні відхилення,
N-кількість спостережень.
Парні кореляції
Наприклад, ми хотіли б з'ясувати, як співвідносяться відповіді між різними видами традиційних цінностей у уявленнях студентів про ідеальне місце роботи (змінні: а9.1, а9.3, а9.5, а9.7), а потім про співвідношення ліберальних цінностей (а9 .2, а9.4, а9.6, а9.8) . Дані змінні виміряні за 5 – членними впорядкованими шкалами.
Використовуємо процедуру: «Аналіз», «Кореляції», «Парні». За замовчуванням коеф. Пірсона встановлений у діалоговому вікні. Використовуємо коеф. Пірсона
У вікно відбору переносяться змінні, що тестуються: а9.1, а9.3, а9.5, а9.7
Шляхом натискання ОК отримуємо розрахунок:
Кореляції
а9.1.т. Наскільки важливо мати достатньо часу для сім'ї та особистого життя? |
Кореляція Пірсона |
||||
Знч.(2-сторон) |
|||||
а9.3.т. Наскільки важливо не боятися втратити свою роботу? |
Кореляція Пірсона |
||||
Знч.(2-сторон) |
|||||
а9.5.т. Наскільки важливо мати такого начальника, який радитиметься з Вами, приймаючи те чи інше рішення? |
Кореляція Пірсона |
||||
Знч.(2-сторон) |
|||||
а9.7.т. Наскільки важливо працювати у злагодженому колективі, відчувати себе його частиною? |
Кореляція Пірсона |
||||
Знч.(2-сторон) |
|||||
** Кореляція значуща лише на рівні 0.01 (2-сторон.).
Таблиця кількісних значень побудованої кореляційної матриці
Приватні кореляції:
Для початку збудуємо парну кореляцію між зазначеними двома змінними:
Кореляції |
|||
с8. Відчувають близькість із тими, хто живе поруч із вами, сусідами |
Кореляція Пірсона |
||
Знч.(2-сторон) |
|||
с12. Відчувають близькість зі своєю родиною |
Кореляція Пірсона |
||
Знч.(2-сторон) |
|||
**. Кореляція значуща лише на рівні 0.01 (2-сторон.). |
Потім використовуємо процедуру побудови приватної кореляції: «Аналіз», «Кореляції», «Приватні».
Припустимо, що цінність «Важливо самостійно визначати та змінювати порядок своєї роботи» у взаємозв'язку із зазначеними змінними виявиться тим вирішальним фактором, під вплив якого раніше виявлений зв'язок зникне, або виявиться малозначимим.
Кореляції |
||||
Виключені змінні |
с8. Відчувають близькість із тими, хто живе поруч із вами, сусідами |
с12. Відчувають близькість зі своєю родиною |
||
с16. Відчувають близькість з людьми, які мають той самий достаток, що й ви |
с8. Відчувають близькість із тими, хто живе поруч із вами, сусідами |
Кореляція |
||
Значимість (2-сторон.) |
||||
с12. Відчувають близькість зі своєю родиною |
Кореляція |
|||
Значимість (2-сторон.) |
||||
Як очевидно з таблиці під впливом контрольної змінної зв'язок дещо знизилася: з 0, 120 до 0, 102. Проте, це зниження зниження дозволяє стверджувати, що рані виявлена зв'язок є відбитком хибної кореляції, т.к. вона залишається досить високою і дозволяє із нульовою похибкою спростовувати нульову гіпотезу.
Коефіцієнт кореляції
Найбільш точний спосіб визначення тісноти та характеру кореляційного зв'язку - знаходження коефіцієнта кореляції. Коефіцієнт кореляції є число, що визначається за формулою:
де r ху – коефіцієнт кореляції;
x i -значення першої ознаки;
у i-значення другої ознаки;
Середня арифметична значень першої ознаки
Середня арифметична значень другої ознаки
Для користування формулою (32) побудуємо таблицю, яка забезпечить необхідну послідовність у підготовці чисел для знаходження чисельника та знаменника коефіцієнта кореляції.
Як видно з формули (32), послідовність дій така: знаходимо середні арифметичні обох ознак х і у, знаходимо різницю між значеннями ознаки та її середньої (х і -) і у і -), потім знаходимо їх добуток (х і -) ( у і - ) – сума останніх дає чисельник коефіцієнта кореляції. Для знаходження його знаменника слід різниці (x i -) і (у і -) звести в квадрат, знайти їх суми і витягти корінь квадратний з їхнього твору.
Так для прикладу 31 знаходження коефіцієнта кореляції відповідно до формули (32) можна подати наступним чином (табл. 50).
Отримана кількість коефіцієнта кореляції дає змогу встановити наявність, тісноту та характер зв'язку.
1. Якщо коефіцієнт кореляції дорівнює нулю, зв'язок між ознаками відсутній.
2. Якщо коефіцієнт кореляції дорівнює одиниці, зв'язок між ознаками настільки великий, що перетворюється на функціональну.
3. Абсолютна величина коефіцієнта кореляції не виходить за межі інтервалу від нуля до одиниці:
Це дає можливість орієнтуватися на тісноту зв'язку: чим величина коефіцієнта ближче до нуля, тим зв'язок слабший, а чим ближче до одиниці, тим більше зв'язок.
4. Знак коефіцієнта кореляції "плюс" означає пряму кореляцію, знак "мінус"-зворотну.
Таблиця 50
х і | у і | (х і -) | (у і -) | (х і -) (у і -) | (х і -) 2 | (у і - )2 |
14,00 | 12,10 | -1,70 | -2,30 | +3,91 | 2,89 | 5,29 |
14,20 | 13,80 | -1,50 | -0,60 | +0,90 | 2,25 | 0,36 |
14,90 | 14,20 | -0,80 | -0,20 | +0,16 | 0,64 | 0,04 |
15,40 | 13,00 | -0,30 | -1,40 | +0,42 | 0,09 | 1,96 |
16,00 | 14,60 | +0,30 | +0,20 | +0,06 | 0,09 | 0,04 |
17,20 | 15,90 | +1,50 | +2,25 | 2,25 | ||
18,10 | 17,40 | +2,40 | +2,00 | +4,80 | 5,76 | 4,00 |
109,80 | 101,00 | 12,50 | 13,97 | 13,94 |
Таким чином, обчислений прикладі 31 коефіцієнт кореляції r xy = +0,9. дозволяє зробити такі висновки: існує кореляційний зв'язок між величиною м'язової сили правої та лівої кистей у досліджуваних школярів (коефіцієнт r xy =+0,9 відмінний від нуля), зв'язок дуже тісний (коефіцієнт r xy =+0,9 близький до одиниці), кореляція пряма (коефіцієнт r xy = +0,9 позитивний), т. Е. Зі збільшенням м'язової сили однієї з кистей збільшується сила іншого кисті.
При обчисленні коефіцієнта кореляції та користуванні його властивостями слід врахувати, що висновки дають коректні результати в тому випадку, коли ознаки розподілені нормально і розглядається взаємозв'язок між великою кількістю значень обох ознак.
У розглянутому прикладі 31 аналізовано лише 7 значень обох ознак, що, звичайно, недостатньо для подібних досліджень. Нагадуємо тут ще раз, що приклади, у цій книзі взагалі й у цьому розділі зокрема, мають характер ілюстрації методів, а чи не докладного викладу будь-яких наукових експериментів. Внаслідок цього розглянуто невелику кількість значень ознак, виміри округлені - все це робиться для того, щоб громіздкими обчисленнями не затемнювати ідею методу.
Особливу увагу слід звернути на істоту взаємозв'язку, що розглядається. Коефіцієнт кореляції неспроможна призвести до правильних результатів дослідження, якщо аналіз взаємозв'язку між ознаками проводиться формально. Повернемося ще раз до прикладу 31. Обидві розглянуті ознаки являли собою значення м'язової сили правої та лівої кистей. Уявімо, що під ознакою x i у прикладі 31 (14,0; 14,2; 14,9... ...18,1) ми розуміємо довжину випадково спійманих риб у сантиметрах, а під ознакою у і (12,1 - 13,8;14,2... ...17,4) -вага приладів в лабораторії в кілограмах. Формально скориставшись апаратом обчислень знаходження коефіцієнта кореляції і отримавши у разі також r xy =+0>9, ми мали укласти, що з довжиною риб і вагою приладів існує тісний зв'язок прямого характеру. Безглуздість такого висновку очевидна.
Щоб уникнути формального підходу до користування коефіцієнтом кореляції, слід будь-яким іншим методом – математичним, логічним, експериментальним, теоретичним – виявити можливість існування кореляційного зв'язку між ознаками, тобто виявити органічну єдність ознак. Тільки після цього можна приступати до користування кореляційним аналізом та встановлювати величину та характер взаємозв'язку.
У математичній статистиці існує ще поняття множинної кореляції- взаємозв'язку між трьома та більше ознаками. У цих випадках користуються коефіцієнтом множинної кореляції, що складається з парних коефіцієнтів кореляції, описаних вище.
Наприклад, коефіцієнт кореляції трьох ознак-х і , у і , z і - є:
де R xyz -коефіцієнт множинної кореляції, що виражає, як ознака х i залежить від ознак у і і z i;
r xy -коефіцієнт кореляції між ознаками x i та y i;
r xz -коефіцієнт кореляції між ознаками Xi та Zi;
r yz - коефіцієнт кореляції між ознаками y i , z i
Кореляційний аналіз це:
Кореляційний аналізКореляція- статистична взаємозв'язок двох чи кількох випадкових величин (чи величин, які можна з деякою допустимою мірою точності вважати такими). При цьому зміни однієї або декількох з цих величин призводять до систематичної зміни іншої або інших величин. Математичною мірою кореляції двох випадкових величин є коефіцієнт кореляції.
Кореляція може бути позитивною та негативною (можлива також ситуація відсутності статистичного взаємозв'язку - наприклад, для незалежних випадкових величин). Негативна кореляція - кореляція, при якій збільшення однієї змінної пов'язане із зменшенням іншої змінної, при цьому коефіцієнт кореляції негативний. Позитивна кореляція - кореляція, при якій збільшення однієї змінної пов'язане зі збільшенням іншої змінної, при цьому коефіцієнт кореляції є позитивним.
Автокореляція - Статистичний взаємозв'язок між випадковими величинами з одного ряду, але взятих зі зрушенням, наприклад, для випадкового процесу - зі зрушенням за часом.
Метод обробки статистичних даних, що полягає у вивченні коефіцієнтів (кореляції) між змінними, називається кореляційним аналізом.
Коефіцієнт кореляції
Коефіцієнт кореляціїабо парний коефіцієнт кореляціїтеоретично ймовірностей і статистиці - це показник характеру зміни двох випадкових величин. Коефіцієнт кореляції позначається латинською літерою R і може набувати значень між -1 і +1. Якщо значення по модулю знаходиться ближче до 1, це означає наявність сильного зв'язку (при коефіцієнті кореляції рівному одиниці говорять про функціональний зв'язок), а якщо ближче до 0, то слабкої.
Коефіцієнт кореляції Пірсона
Для метричних величин застосовується коефіцієнт кореляції Пірсона, точна формула якого була введена Френсісом Гальтоном:
Нехай X,Y- Дві випадкові величини, визначені на одному імовірнісному просторі. Тоді їхній коефіцієнт кореляції задається формулою:
![](https://i0.wp.com/i.zna4enie.ru/1/znachenie-kojefficienta-korreljacii_10.png)
![](https://i1.wp.com/i.zna4enie.ru/1/znachenie-kojefficienta-korreljacii_10.png)
де cov позначає коваріацію, а D - дисперсію, або, що те саме,
,де символ означає математичне очікування.
Для графічного уявлення подібного зв'язку можна використовувати прямокутну систему координат з осями, які відповідають обох змінних. Кожна пара значень маркується за допомогою певного символу. Такий графік називається "діаграмою розсіювання".
Метод обчислення коефіцієнта кореляції залежить від виду шкали, до якої належать змінні. Так, для вимірювання змінних з інтервальною та кількісною шкалами необхідно використовувати коефіцієнт кореляції Пірсона (кореляція моментів творів). Якщо щонайменше одна з двох змінних має порядкову шкалу або не є нормально розподіленою, необхідно використовувати рангову кореляцію Спірмена або τ (тау) Кендалу. У разі коли одна з двох змінних є дихотомічною, використовується точкова дворядна кореляція, а якщо обидві змінні є дихотомічними: чотирипольова кореляція. Розрахунок коефіцієнта кореляції між двома недихотомічними змінними не позбавлений сенсу лише тоді, коли зв'язок між ними лінійний (односпрямований).
Коефіцієнт кореляції Кенделл
Використовується для виміру взаємної невпорядкованості.
Коефіцієнт кореляції Спірмена
Властивості коефіцієнта кореляції
- Нерівність Коші – Буняковського:
![](https://i1.wp.com/i.zna4enie.ru/a/znachenie-kojefficienta-korreljacii_14.png)
![](https://i1.wp.com/i.zna4enie.ru/a/znachenie-kojefficienta-korreljacii_14.png)
Кореляційний аналіз
Кореляційний аналіз- метод обробки статистичних даних, що полягає у вивченні коефіцієнтів ( кореляції) між змінними. При цьому порівнюються коефіцієнти кореляції між однією парою або безліччю пар ознак для встановлення між ними статистичних взаємозв'язків.
Ціль кореляційного аналізу- Забезпечити отримання деякої інформації про одну змінну за допомогою іншої змінної. У випадках, коли можливе досягнення мети, кажуть, що змінні корелюють. У самому загальному вигляді прийняття гіпотези про наявність кореляції означає, що зміна значення змінної А, відбудеться одночасно з пропорційною зміною значення Б: якщо обидві змінні зростають то кореляція позитивнаякщо одна змінна зростає, а друга зменшується, кореляція негативна.
Кореляція відбиває лише лінійну залежність величин, але з відбиває їх функціональної зв'язності. Наприклад, якщо визначити коефіцієнт кореляції між величинами A = sin(x) та B = cos(x), він буде близький до нуля, т. е. залежність між величинами відсутня. Тим часом, величини A та B очевидно пов'язані функціонально за законом sin 2(x) + cos 2(x) = 1.
Обмеження кореляційного аналізу
![](https://i1.wp.com/i.zna4enie.ru/d/znachenie-kojefficienta-korreljacii_22.png)
![](https://i0.wp.com/i.zna4enie.ru/d/znachenie-kojefficienta-korreljacii_22.png)
- Застосування можливе у разі достатньої кількості випадків для вивчення: для конкретного виду коефіцієнта кореляції становить від 25 до 100 пар спостережень.
- Друге обмеження випливає з гіпотези кореляційного аналізу, на яку закладено лінійна залежність змінних. У багатьох випадках, коли достовірно відомо, що залежність існує, кореляційний аналіз може не дати результатів просто через те, що залежність нелінійна (виражена, наприклад, у вигляді параболи).
- Сам собою факт кореляційної залежності не дає підстави стверджувати, яка зі змінних передує або є причиною змін, або що змінні взагалі причинно пов'язані між собою, наприклад, через дії третього фактора.
Галузь застосування
Даний метод обробки статистичних даних дуже популярний в економіці та соціальних науках (зокрема в психології та соціології), хоча сфера застосування коефіцієнтів кореляції велика: контроль якості промислової продукції, металознавство, агрохімія, гідробіологія, біометрія та інші.
Популярність методу обумовлена двома моментами: коефіцієнти кореляції щодо прості у підрахунку, їх застосування вимагає спеціальної математичної підготовки. У поєднанні з простотою інтерпретації, простота застосування коефіцієнта призвела до його поширення у сфері аналізу статистичних даних.
Хибна кореляція
Часто приваблива простота кореляційного дослідження підштовхує дослідника робити помилкові інтуїтивні висновки про наявність причинно-наслідкового зв'язку між парами ознак, тоді як коефіцієнти кореляції встановлюють лише статистичні взаємозв'язки.
У сучасній кількісній методології соціальних наук, фактично, відбулася відмова від спроб встановити причинно-наслідкові зв'язки між змінними емпіричними методами, що спостерігаються. Тому, коли дослідники в соціальних науках говорять про встановлення взаємозв'язків між змінними, що вивчаються, мається на увазі або загальнотеоретичне припущення, або статистична залежність.
Див. також
- Автокореляційна функція
- Взаємнокореляційна функція
- Коваріація
- Коефіцієнт детермінації
- Регресійний аналіз
Wikimedia Foundation. 2010 року.
Різні ознаки можуть бути пов'язані між собою.
Виділяють 2 види зв'язку між ними:
- функціональна;
- кореляційна.
Кореляціяу перекладі російською мовою – не що інше, як зв'язок.
У разі кореляційного зв'язку простежується відповідність кількох значень однієї ознаки кільком значенням іншої ознаки. Як приклади можна розглянути встановлені кореляційні зв'язки між:
- довжиною лап, шиї, дзьоба у таких птахів як чаплі, журавлі, лелеки;
- показниками температури тіла та частоти серцевих скорочень.
Більшість медико-біологічних процесів статистично доведено присутність цього зв'язку.
Статистичні методи дають змогу встановити факт існування взаємозалежності ознак. Використання цього спеціальних розрахунків призводить до встановлення коефіцієнтів кореляції (заходи пов'язаності).
Такі розрахунки дістали назву кореляційний аналіз.Він проводиться на підтвердження залежності друг від друга 2-х змінних (випадкових величин), що виражається коефіцієнтом кореляції.
Використання кореляційного методу дозволяє вирішити декілька завдань:
- виявити наявність взаємозв'язку між аналізованими параметрами;
- знання наявності кореляційного зв'язку дозволяє вирішувати проблеми прогнозування. Так, існує реальна можливість передбачати поведінку параметра на основі аналізу поведінки іншого параметра, що корелює;
- проведення класифікації з урахуванням підбору незалежних друг від друга ознак.
Для змінних величин:
- що належать до порядкової шкали, розраховується коефіцієнт Спірмена;
- що відносяться до інтервальної шкали - коефіцієнт Пірсона.
Це найчастіше використовувані параметри, крім них є інші.
Значення коефіцієнта може бути як позитивним, і негативними.
У першому випадку зі збільшенням значення однієї змінної спостерігається збільшення другої. При негативному коефіцієнті закономірність зворотна.
Навіщо потрібен коефіцієнт кореляції?
Випадкові величини, пов'язані між собою, можуть мати зовсім різну природу зв'язку. Не обов'язково вона буде функціональною, випадок коли простежується пряма залежність між величинами. Найчастіше на обидві величини діє ціла сукупність різноманітних факторів, у випадках, коли вони є загальними для обох величин, спостерігається формування пов'язаних закономірностей.
Це означає, що доведений статистично факт наявності зв'язку між величинами не є підтвердженням того, що встановлено причину змін, що спостерігаються. Як правило, дослідник робить висновок про наявність двох взаємозалежних наслідків.
Властивості коефіцієнта кореляції
Цій статистичній характеристиці притаманні такі властивості:
- значення коефіцієнта знаходиться в діапазоні від -1 до +1. Чим ближче до крайніх значень, тим більше позитивна чи негативна зв'язок між лінійними параметрами. У разі нульового значення йдеться про відсутність кореляції між ознаками;
- позитивне значення коефіцієнта свідчить у тому, що разі збільшення значення однієї ознаки спостерігається збільшення другого (позитивна кореляція);
- негативне значення – у разі збільшення значення однієї ознаки спостерігається зменшення другої (негативна кореляція);
- наближення значення показника до крайніх точок (або -1 або +1) свідчить про наявність дуже сильного лінійного зв'язку;
- показники ознаки можуть змінюватись при незмінному значенні коефіцієнта;
- кореляційний коефіцієнт є безрозмірною величиною;
- наявність кореляційного зв'язку перестав бути обов'язковим підтвердженням причинно-наслідкового зв'язку.
Значення коефіцієнта кореляції
Охарактеризувати силу кореляційного зв'язку можна вдавшись до шкали Челдока, у якій певному числовому значенню відповідає якісна характеристика.
У разі позитивної кореляції при значенні:
- 0-0,3 - кореляційний зв'язок дуже слабкий;
- 0,3-0,5 – слабка;
- 0,5-0,7 – середньої сили;
- 0,7-0,9 – висока;
- 0,9-1 – дуже висока сила кореляції.
Шкала може використовуватись і для негативної кореляції. І тут якісні характеристики замінюються на протилежні.
Можна скористатися спрощеною шкалою Челдока, в якій виділяється всього 3 градації сили кореляційного зв'язку:
- дуже сильна - показники ±0,7 - ±1;
- середня – показники ±0,3 – ±0,699;
- дуже слабка – показники 0 – ±0,299.
Цей статистичний показник дозволяє як перевірити припущення про існування лінійної взаємозв'язку між ознаками, а й встановити її силу.
Види коефіцієнта кореляції
Коефіцієнти кореляції можна класифікувати за знаком і значенням:
- позитивний;
- нульовий;
- негативний.
Залежно від аналізованих значень розраховується коефіцієнт:
- Пірсона;
- Спірмена;
- Кендалу;
- знаків Фехнера;
- конкордації чи множинної рангової кореляції.
Кореляційний коефіцієнт Пірсона використовується встановлення прямих зв'язків між абсолютними значеннями змінних. При цьому розподіл обох рядів змінних має наближатися до нормального. Порівнянні змінні повинні відрізнятися однаковим числом ознак, що варіюють. Шкала, що представляє змінні, має бути інтервальної чи шкалою відносин.
- точного встановлення кореляційної сили;
- порівняння кількісних ознак.
Недоліків використання лінійного кореляційного коефіцієнта Пірсона небагато:
- метод нестійкий у разі викидів числових значень;
- за допомогою цього методу можливе визначення кореляційної сили тільки для лінійного взаємозв'язку, за інших видів взаємних зв'язків змінних слід використовувати методи регресійного аналізу.
Рангова кореляція визначається методом Спірмена, що дозволяє статистично досліджувати зв'язок між явищами. Завдяки цьому коефіцієнту обчислюється фактично існуючий рівень паралелізму двох кількісно виражених рядів ознак, і навіть оцінюється тіснота, виявленої зв'язку.
- що не потребують точного визначення значення кореляційної сили;
- порівнювані показники мають як кількісні, і атрибутивні значення;
- рівняння рядів ознак із відкритими варіантами значень.
Метод Спірмена відноситься до методів непараметричного аналізу, тому немає потреби перевіряти нормальність розподілу ознаки. До того ж, він дозволяє порівнювати показники, виражені в різних шкалах. Наприклад, порівняння значень кількості еритроцитів у певному обсязі крові (безперервна шкала) та експертної оцінки, що виражається в балах (порядкова шкала).
На ефективність методу негативно впливає велика різниця між значеннями порівнюваних величин. Неефективний метод і у випадках, коли вимірювана величина характеризується нерівномірним розподілом значень.
Покроковий розрахунок коефіцієнта кореляції в Excel
Розрахунок кореляційного коефіцієнта передбачає послідовне виконання низки математичних операцій.
Наведена вище формула розрахунку коефіцієнта Пірсона, показує наскільки трудомісткий цей процес, якщо виконувати його вручну.
Використання можливостей Excell прискорює процес знаходження коефіцієнта у рази.
Достатньо дотримати нескладний алгоритм дій:
- введення базової інформації - стовпець значень х і стовпець значень у;
- в інструментах вибирається та відкривається вкладка «Формули»;
- у вкладці вибирається «Вставка функції fx»;
- у діалоговому вікні, що відкрилося, вибирається статистична функція «Коррел», що дозволяє виконати розрахунок кореляційного коефіцієнта між 2 масивами даних;
- вікно, що відкрилося, вносяться дані: масив 1 - діапазон значень стовпця х (дані необхідно виділити), масив 2 - діапазон значень стовпця у;
- натискається клавіша "ок", у рядку "значення" з'являється результат розрахунку коефіцієнта;
- висновок щодо наявності кореляційного зв'язку між 2 масивами даних та її силою.
Кореляційна модель (КМ) - це програма обчислень, що забезпечує отримання математичного рівняння, у якому результативний показник кількісно визначено залежно від однієї чи кількох показників.
ух = ао + а1х1
де: у – результативний показник, що залежить від фактора х;
х – факторний ознака;
а1 - параметр КМ, що показує на скільки зміниться результативний показник у при зміні фактора х на одиницю, якщо при цьому всі інші фактори, що впливають на у, залишаються незмінними;
ао-параметр КМ, який показує вплив всіх інших факторів на результативний показник у, крім факторної ознаки х
При виборі результативного та факторних показників моделі необхідно враховувати те, що результативний показник у ланцюжку причинно-наслідкових зв'язків стоїть на вищому рівні, ніж факторні показники.
Характеристики кореляційної моделі
Після розрахунку параметрів моделі кореляційної розраховують коефіцієнт кореляції.
р - коефіцієнт парної кореляції, -1 ≤ р ≤ 1, показує силу та напрямок впливу факторного показника на результативний. Чим ближче до 1, тим зв'язок сильніший, чим ближче до 0, тим слабший зв'язок. Якщо коефіцієнт кореляції має позитивне значення, то зв'язок прямий, якщо негативний - зворотний.
Коефіцієнт кореляції формула: рху=(ху-х*1/у)/ех*еу
ех=хх2-(х)2; эу=у2-(у)2
Якщо КМ лінійна багатофакторна, що має вигляд:
ух = ао + а1х1 + а2х2 + ... + апхп
то для неї розраховують множинний коефіцієнт кореляції.
0 ≤ Р ≤ 1 і показує силу впливу всіх разом узятих факторних показників на результативний.
Р= 1-((ух-уі)2/(уі-уср)2)
Де: ух – результативний показник – розрахункове значення;
уї – фактичне значення;
уср- значення фактичне, середнє.
Розрахункове значення ух виходить у результаті підстановки в кореляційну модель замість х1, х2 і т.д. їх фактичних значень.
Для однофакторних та багатофакторних нелінійних моделей розраховують кореляційне відношення:
1 ≤ м ≤ 1;
Вважається, що зв'язок між результативним та включеними в модель факторними показниками слабка, якщо значення коефіцієнта тісноти зв'язку (м) у межах 0-0,3; якщо 0,3-0,7 – тіснота зв'язку – середня; вище 0,7-1 - зв'язок сильний.
Оскільки коефіцієнт кореляції (парної) р, коефіцієнт кореляції (множинний) Р, кореляційне ставлення м - величини ймовірнісні, то їм розраховують коефіцієнти їх суттєвості (визначаються по таблицям). Якщо ці коефіцієнти будуть більшими, ніж їх табличне значення, то коефіцієнти тісноти зв'язку є причинами суттєвими. Якщо ж коефіцієнти суттєвості тісноти зв'язку менше табличних значень чи якщо сам коефіцієнт зв'язку менше, ніж 0,7, то модель включені в повному обсязі факторні показники, істотно які впливають результат.
Коефіцієнт детермінації наочно демонструє, наскільки відсотків включені до моделі факторні показники визначають формування результату.
Якщо коефіцієнт детермінації більше 50, то модель адекватно описує досліджуваний процес, якщо менше 50, треба повернутися до першого етапу побудови і переглянути відбір факторних показників для включення їх в модель.
Коефіцієнт Фішера чи критерій Фішера характеризує ефективність моделі загалом. Якщо розрахункове значення коефіцієнта перевищує табличне, то побудована модель годиться для аналізу, і навіть планування показників, розрахунків з перспективи. Орієнтовно табличне значення = 1,5. Якщо розрахункове значення менше табличного, необхідно побудувати модель спочатку, включивши фактори, що істотно впливають на результат. Крім ефективності моделі загалом суттєвість впливає кожен коефіцієнт регресії. Якщо розрахункове значення даного коефіцієнта перевершило за величиною табличне, то коефіцієнт регресії буде суттєвий, якщо менше, то факторний показник, для якого розрахований даний коефіцієнт, вилучають із вибірки, розрахунки починають спочатку, але вже без цього фактора.
Коефіцієнт кореляції – це ступінь зв'язку між двома змінними. Його розрахунок дає уявлення про те, чи є залежність між двома масивами даних. На відміну від регресії, кореляція дозволяє прогнозувати значення величин. Проте розрахунок коефіцієнта є важливим етапом попереднього статистичного аналізу. Наприклад, ми встановили, що коефіцієнт кореляції між рівнем прямих іноземних інвестицій та темпом зростання ВВП є високим. Це дає нам уявлення, що для забезпечення добробуту потрібно створити сприятливий клімат саме для зарубіжних підприємців. Не такий і очевидний висновок на перший погляд!
Кореляція та причинність
Мабуть, немає жодної сфери статистики, яка б так міцно увійшла до нашого життя. Коефіцієнт кореляції використовується у всіх галузях суспільних знань. Основна його небезпека полягає в тому, що найчастіше його високими значеннями спекулюють для того, щоб переконати людей та змусити їх повірити у якісь висновки. Однак насправді сильна кореляція аж ніяк не свідчить про причинно-наслідкову залежність між величинами.
Коефіцієнт кореляції: формула Пірсона та Спірмана
Існує кілька основних показників, що характеризують зв'язок між двома змінними. Історично першим є коефіцієнт лінійної кореляції Пірсона. Його проходять ще у школі. Він був розроблений К. Пірсоном та Дж. Юлом на основі робіт Фр. Гальтон. Цей коефіцієнт дозволяє побачити взаємозв'язок між раціональними числами, що змінюються раціонально. Він завжди більше -1 і менше 1. Негативно число свідчить про обернено пропорційну залежність. Якщо коефіцієнт дорівнює нулю, зв'язку між змінними немає. дорівнює позитивному числу - має місце прямо пропорційна залежність між досліджуваними величинами. Коефіцієнт рангової кореляції Спірмана дозволяє спростити розрахунки з допомогою побудови ієрархії значень змінних.
Відносини між змінними
Кореляція допомагає знайти відповідь два питання. По-перше, чи є зв'язок між змінними позитивним чи негативним. По-друге, наскільки сильна залежність. Кореляційний аналіз є потужним інструментом, за допомогою якого можна отримати цю важливу інформацію. Легко побачити, що сімейні доходи та витрати падають і зростають пропорційно. Такий зв'язок вважається позитивним. Навпаки, у разі зростання ціни на товар, попит на нього падає. Такий зв'язок називають негативним. Значення коефіцієнта кореляції перебувають у межах між -1 і 1. Нуль означає, що залежність між досліджуваними величинами немає. Чим ближче отриманий показник до крайніх значень, тим сильніший зв'язок (негативний або позитивний). Про відсутність залежності свідчить коефіцієнт від -01 до 01. Потрібно розуміти, що таке значення свідчить лише про відсутність лінійного зв'язку.
Особливості застосування
Використання обох показників пов'язане з певними припущеннями. По-перше, наявність сильного зв'язку не обумовлює того факту, що одна величина визначає іншу. Цілком може бути третя величина, яка визначає кожну з них. По-друге, високий коефіцієнт кореляції Пірсона не свідчить про причинно-наслідковий зв'язок між змінними, що досліджуються. По-третє, він показує виключно лінійну залежність. Кореляція може бути використана для оцінки значних кількісних даних (наприклад, атмосферного тиску, температури повітря), а не таких категорій, як підлога або улюблений колір.
Множинний коефіцієнт кореляції
Пірсон та Спірман досліджували зв'язок між двома змінними. Але як діяти у тому випадку, якщо їх три чи навіть більше. Тут на допомогу приходить множинний коефіцієнт кореляції. Наприклад, на валовий національний продукт впливають не лише прямі іноземні інвестиції, а й монетарна та фіскальна політика держави, а також рівень експорту. Темп зростання та обсяг ВВП - це результат взаємодії цілого ряду факторів. Однак треба розуміти, що модель множинної кореляції ґрунтується на цілій низці спрощень та припущень. По-перше, виключається мультиколлінеарність між величинами. По-друге, зв'язок між залежним і такими, що надають вплив змінними, вважається лінійним.
Області використання кореляційно-регресійного аналізу
Даний метод знаходження взаємозв'язку між величинами широко застосовується у статистиці. До нього найчастіше вдаються у трьох основних випадках:
- Для тестування причинно-наслідкових зв'язків між значеннями двох змінних. В результаті дослідник сподівається виявити лінійну залежність та вивести формулу, яка описує ці відносини між величинами. Одиниці їх виміру можуть бути різними.
- Для перевірки зв'язку між величинами. І тут ніхто не визначає, яка змінна є залежною. Може виявитися, що значення обох величин зумовлює якийсь інший фактор.
- Для виведення рівняння. У цьому випадку можна просто підставити в нього числа і дізнатися про значення невідомої змінної.
Людина у пошуках причинно-наслідкового зв'язку
Свідомість влаштована таким чином, що нам обов'язково потрібно пояснити події, що відбуваються довкола. Людина завжди шукає зв'язок між картиною світу, в якому вона живе, та одержуваною інформацією. Часто мозок створює порядок із хаосу. Він запросто може побачити причинно-наслідковий зв'язок там, де його немає. Вченим доводиться спеціально вчитися долати цю тенденцію. Здатність оцінювати зв'язки між даними об'єктивно необхідна в академічній кар'єрі.
Упередженість засобів масової інформації
Розглянемо, як кореляційного зв'язку може бути неправильно витлумачено. Групу британських студентів, які відрізняються поганою поведінкою, опитали щодо того, чи курять їхні батьки. Потім тест опублікували у газеті. Результат показав сильну кореляцію між курінням батьків та правопорушеннями їхніх дітей. Професор, який проводив це дослідження, навіть запропонував помістити на пачки цигарок попередження про це. Однак існує ціла низка проблем з таким висновком. По-перше, кореляція не показує, яка із величин є незалежною. Тому можна припустити, що згубна звичка батьків викликана непослухом дітей. По-друге, не можна з упевненістю сказати, що обидві проблеми не виникли через якийсь третій чинник. Наприклад, низький доход сімей. Слід зазначити емоційний аспект початкових висновків професора, який проводив дослідження. Він був затятим противником куріння. Тому немає нічого дивного у тому, що він інтерпретував результати свого дослідження саме так.
Висновки
Неправильне тлумачення кореляції як причинно-наслідкового зв'язку між двома змінними може спричинити ганебні помилки в дослідженнях. Проблема полягає в тому, що воно лежить в основі людської свідомості. Багато маркетингових трюків побудовано саме на цій особливості. Розуміння відмінності між причинно-наслідковим зв'язком та кореляцією дозволяє раціонально аналізувати інформацію як у повсякденному житті, так і у професійній кар'єрі.