Co to jest korelacja w statystyce. Współczynnik korelacji jest cechą charakterystyczną modelu korelacji. Jak interpretować wartość współczynnika korelacji Pearsona
![Co to jest korelacja w statystyce. Współczynnik korelacji jest cechą charakterystyczną modelu korelacji. Jak interpretować wartość współczynnika korelacji Pearsona](https://i2.wp.com/psyfactor.org/lib/i/Image45.gif)
" Statystyka
Statystyka i przetwarzanie danych w psychologii
(kontynuacja)
Analiza korelacji
podczas nauki korelacje spróbuj ustalić, czy istnieje związek między dwoma wskaźnikami w tej samej próbie (na przykład między wzrostem a wagą dzieci lub między poziomem ILORAZ INTELIGENCJI i wyniki w szkole) lub między dwiema różnymi próbami (na przykład przy porównywaniu par bliźniąt), a jeśli taka zależność istnieje, to czy wzrostowi jednego wskaźnika towarzyszy wzrost (korelacja dodatnia), czy spadek (korelacja ujemna) inny.
Innymi słowy, analiza korelacji pomaga ustalić, czy możliwe jest przewidzenie możliwych wartości jednego wskaźnika, znając wartość innego.
Do tej pory, analizując wyniki naszych doświadczeń w badaniu działania marihuany, celowo ignorowaliśmy taki wskaźnik, jak czas reakcji. Tymczasem ciekawe byłoby sprawdzenie, czy istnieje zależność między wydajnością reakcji a ich szybkością. Pozwoliłoby to np. argumentować, że im osoba jest wolniejsza, tym dokładniejsze i skuteczniejsze będą jej działania i odwrotnie.
W tym celu można zastosować dwie różne metody: parametryczną metodę obliczania współczynnika Bravais-Pearsona (r) oraz metodę obliczania współczynnika korelacji rang Spearmana (r s), która jest stosowana do danych porządkowych, tj. jest nieparametryczny. Jednak najpierw zrozummy, czym jest współczynnik korelacji.
Współczynnik korelacji
Współczynnik korelacji to wartość, która może wahać się od +1 do -1. W przypadku korelacji zupełnej dodatniej współczynnik ten wynosi plus 1, aw przypadku korelacji zupełnej ujemnej minus 1. Na wykresie odpowiada to prostej przechodzącej przez punkty przecięcia wartości każdej pary danych:
Jeśli punkty te nie układają się w linii prostej, ale tworzą „chmurę”, wartość bezwzględna współczynnika korelacji staje się mniejsza od jedności i zbliża się do zera w miarę zaokrąglania chmury:
Jeśli współczynnik korelacji wynosi 0, obie zmienne są od siebie całkowicie niezależne.
W naukach humanistycznych korelację uważa się za silną, jeśli jej współczynnik jest większy niż 0,60; jeśli przekracza 0,90, to korelację uważa się za bardzo silną. Aby jednak móc wnioskować o zależnościach między zmiennymi, duże znaczenie ma wielkość próby: im większa próba, tym bardziej wiarygodna jest wartość uzyskanego współczynnika korelacji. Istnieją tabele z wartościami krytycznymi współczynników korelacji Bravais-Pearsona i Spearmana dla różnej liczby stopni swobody (jest ona równa liczbie par minus 2, tj. n- 2). Tylko wtedy, gdy współczynniki korelacji są większe niż te krytyczne wartości, można je uznać za wiarygodne. Aby więc współczynnik korelacji na poziomie 0,70 był wiarygodny, należy wziąć pod uwagę co najmniej 8 par danych ( h = n-2=6) przy obliczaniu r (patrz Tabela 4 w Dodatku) i 7 par danych (h = n-2= 5) przy obliczaniu r s (tabela 5 w załączniku).
Jeszcze raz chciałbym podkreślić, że istota tych dwóch współczynników jest nieco inna. Ujemny współczynnik r wskazuje, że skuteczność jest najczęściej tym większa, im krótszy jest czas reakcji, natomiast przy obliczaniu współczynnika r s należało sprawdzić, czy osoby szybsze zawsze reagują dokładniej, a osoby wolniejsze mniej dokładnie.
Współczynnik korelacji Bravais-Pearson (r) - Jest to wskaźnik parametryczny, do obliczenia którego porównuje się średnie i standardowe odchylenia wyników dwóch pomiarów. W tym przypadku używana jest formuła (może wyglądać inaczej dla różnych autorów)
gdzie Σ XY- suma iloczynów danych z każdej pary;
n to liczba par;
X - średnia dla danej zmiennej x;
Y -
średnia dla danych zmiennych Y
Sx- odchylenie standardowe dla rozkładu X;
Sy- odchylenie standardowe dla rozkładu w
Współczynnik korelacji rang Spearmana ( rs ) - jest to wskaźnik nieparametryczny, za pomocą którego próbują ujawnić związek między szeregami odpowiednich wielkości w dwóch seriach pomiarów.
Ten współczynnik jest łatwiejszy do obliczenia, ale wyniki są mniej dokładne niż przy użyciu r. Wynika to z faktu, że przy obliczaniu współczynnika Spearmana stosuje się kolejność danych, a nie ich charakterystykę ilościową i odstępy między klasami.
Faktem jest, że korzystając ze współczynnika korelacji rang Spearmana (r s), sprawdzają oni jedynie, czy uszeregowanie danych dla dowolnej próby będzie takie samo, jak w szeregu innych danych dla tej próby, powiązanych parami z pierwszą (np. , czy będą tak samo „klasyfikowani” przez studentów zarówno psychologii, jak i matematyki, czy nawet dwóch różnych nauczycieli psychologii?). Jeśli współczynnik jest bliski +1, to oznacza to, że oba szeregi praktycznie się pokrywają, a jeśli ten współczynnik jest bliski -1, możemy mówić o całkowitej odwrotności zależności.
Współczynnik rs obliczone według wzoru
gdzie d jest różnicą między rangami wartości cechy sprzężonej (niezależnie od jej znaku), a jest liczbą par.
Zazwyczaj ten test nieparametryczny jest używany w przypadkach, w których trzeba wyciągnąć wnioski nie tyle interwały między danymi, ile o nich szeregi, a także gdy krzywe rozkładu są zbyt skośne i nie pozwalają na zastosowanie kryteriów parametrycznych, takich jak współczynnik r (w takich przypadkach może być konieczne przekształcenie danych ilościowych w dane porządkowe).
Streszczenie
Rozważaliśmy więc różne parametryczne i nieparametryczne metody statystyczne stosowane w psychologii. Nasza recenzja była bardzo powierzchowna, a jej głównym zadaniem było uświadomienie czytelnikowi, że statystyki nie są takie straszne, jak się wydaje i wymagają przede wszystkim zdrowego rozsądku. Przypominamy, że dane „doświadczenia”, z którymi mieliśmy tutaj do czynienia, są fikcyjne i nie mogą służyć jako podstawa do jakichkolwiek wniosków. Warto jednak zrobić taki eksperyment. Ponieważ do tego eksperymentu wybrano czysto klasyczną technikę, ta sama analiza statystyczna może być wykorzystana w wielu różnych eksperymentach. W każdym razie wydaje nam się, że nakreśliliśmy kilka głównych kierunków, które mogą być przydatne dla tych, którzy nie wiedzą, od czego zacząć analizę statystyczną wyników.
Literatura
- Godefroy J. Co to jest psychologia. - M., 1992.
- Chatillon G., 1977. Statistique en Sciences humaines, Trois-Rivieres, wyd. pistolet maszynowy
- Gilbert N. 1978. Statistiques, Montreal, wyd. HRW
- Moroney MJ, 1970. Comprendre la statistique, Verviers, Gerard et Cie.
- Siegel S., 1956. Statystyka nieparametryczna, Nowy Jork, MacGraw-Hill Book Co.
Aplikacja arkusza kalkulacyjnego
Notatki. 1) W przypadku dużych prób lub poziomów istotności mniejszych niż 0,05 patrz tabele w podręcznikach statystycznych.
2) Tabele wartości dla innych kryteriów nieparametrycznych znajdują się w specjalnych wytycznych (patrz bibliografia).
Tabela 1. Wartości kryteriów t Student | |
h | 0,05 |
1 | 6,31 |
2 | 2,92 |
3 | 2,35 |
4 | 2,13 |
5 | 2,02 |
6 | 1,94 |
7 | 1,90 |
8 | 1,86 |
9 | 1,83 |
10 | 1,81 |
11 | 1,80 |
12 | 1,78 |
13 | 1,77 |
14 | 1,76 |
15 | 1,75 |
16 | 1,75 |
17 | 1,74 |
18 | 1,73 |
19 | 1,73 |
20 | 1,73 |
21 | 1,72 |
22 | 1,72 |
23 | 1,71 |
24 | 1,71 |
25 | 1,71 |
26 | 1,71 |
27 | 1,70 |
28 | 1,70 |
29 | 1,70 |
30 | 1,70 |
40 | 1,68 |
¥ | 1,65 |
Tabela 2. Wartości kryterium χ 2 | |
h | 0,05 |
1 | 3,84 |
2 | 5,99 |
3 | 7,81 |
4 | 9,49 |
5 | 11,1 |
6 | 12,6 |
7 | 14,1 |
8 | 15,5 |
9 | 16,9 |
10 | 18,3 |
Tabela 3. Wiarygodne wartości Z | |
R | Z |
0,05 | 1,64 |
0,01 | 2,33 |
Tabela 4. Wiarygodne (krytyczne) wartości r | ||
h = (N-2) | p= 0,05 (5%) | |
3 | 0,88 | |
4 | 0,81 | |
5 | 0,75 | |
6 | 0,71 | |
7 | 0,67 | |
8 | 0,63 | |
9 | 0,60 | |
10 | 0,58 | |
11 | 0.55 | |
12 | 0,53 | |
13 | 0,51 | |
14 | 0,50 | |
15 | 0,48 | |
16 | 0,47 | |
17 | 0,46 | |
18 | 0,44 | |
19 | 0,43 | |
20 | 0,42 |
Tabela 5. Wiarygodne (krytyczne) wartości r s | |
h = (N-2) | p = 0,05 |
2 | 1,000 |
3 | 0,900 |
4 | 0,829 |
5 | 0,714 |
6 | 0,643 |
7 | 0,600 |
8 | 0,564 |
10 | 0,506 |
12 | 0,456 |
14 | 0,425 |
16 | 0,399 |
18 | 0,377 |
20 | 0,359 |
22 | 0,343 |
24 | 0,329 |
26 | 0,317 |
28 | 0,306 |
Współczynnik korelacji to wartość, która może zmieniać się od +1 do -1. W przypadku całkowitej dodatniej korelacji współczynnik ten jest równy plus 1 (mówią, że wraz ze wzrostem wartości jednej zmiennej rośnie wartość innej zmiennej), a przy całkowicie ujemnej korelacji - minus 1 (wskazać sprzężenie zwrotne , tj. Gdy wartości jednej zmiennej rosną, wartości drugiej maleją).
Przykład 1:
Wykres zależności nieśmiałości i depresji. Jak widać, kropki (podmioty) nie są rozmieszczone przypadkowo, ale ustawiają się wokół jednej linii i patrząc na tę linię, możemy powiedzieć, że im wyższa nieśmiałość jest wyrażona u osoby, tym bardziej depresyjne, tj. te zjawiska są ze sobą powiązane.
Przykład 2: Wykres nieśmiałości i towarzyskości. Widzimy, że wraz ze wzrostem nieśmiałości maleje towarzyskość. Ich współczynnik korelacji wynosi -0,43. Zatem współczynnik korelacji większy od 0 do 1 wskazuje na zależność wprost proporcjonalną (im więcej ... tym więcej ...), a współczynnik od -1 do 0 wskazuje na zależność odwrotnie proporcjonalną (im więcej ... tym mniej . ..)
Jeśli współczynnik korelacji wynosi 0, obie zmienne są od siebie całkowicie niezależne.
korelacja- jest to zależność, w której wpływ poszczególnych czynników pojawia się jedynie jako trend (średnio) z masową obserwacją rzeczywistych danych. Przykładami zależności korelacyjnych może być zależność między wielkością aktywów banku a wysokością zysku banku, wzrostem wydajności pracy i stażem pracy pracowników.
Stosowane są dwa systemy klasyfikacji korelacji ze względu na ich siłę: ogólny i szczegółowy.
Ogólna klasyfikacja korelacji: 1) silna lub bliska ze współczynnikiem korelacji r> 0,70, 2) średnia 0,500,70, a nie tylko korelacja o wysokim poziomie istotności.Poniższa tabela zawiera nazwy współczynników korelacji dla różnych typów skal.
Skala dychotomiczna (1/0) | Skala rang (porządkowa). | ||
Skala dychotomiczna (1/0) | Współczynnik asocjacji Pearsona, czterokomórkowy współczynnik koniugacji Pearsona. | Korelacja dwuseryjna | |
Skala rang (porządkowa). | Korelacja rangowo-dwuszeregowa. | Współczynnik korelacji rang Spearmana lub Kendalla. | |
Skala interwałowa i bezwzględna | Korelacja dwuseryjna | Wartości skali interwałowej są przeliczane na rangi i używany jest współczynnik rang | Współczynnik korelacji Pearsona (współczynnik korelacji liniowej) |
Na r=0 nie ma korelacji liniowej. W tym przypadku średnie grupowe zmiennych pokrywają się z ich średnimi ogólnymi, a linie regresji są równoległe do osi współrzędnych.
Równość r=0 mówi tylko o braku liniowej zależności korelacyjnej (zmienne nieskorelowane), ale nie ogólnie o braku korelacji, a tym bardziej statystycznej zależności.
Czasami wniosek, że nie ma korelacji, jest ważniejszy niż obecność silnej korelacji. Zerowa korelacja dwóch zmiennych może świadczyć o braku wpływu jednej zmiennej na drugą, pod warunkiem, że ufamy wynikom pomiarów.
w SPSS: 11.3.2 Współczynniki korelacji
Do tej pory dowiedzieliśmy się jedynie o samym fakcie istnienia związku statystycznego między dwiema cechami. Następnie spróbujemy dowiedzieć się, jakie wnioski można wyciągnąć o sile lub słabości tej zależności, a także o jej kształcie i kierunku. Kryteria ilościowego określania relacji między zmiennymi nazywane są współczynnikami korelacji lub miarami łączności. Dwie zmienne są dodatnio skorelowane, jeśli istnieje między nimi bezpośrednia, jednokierunkowa zależność. W relacji jednokierunkowej małe wartości jednej zmiennej odpowiadają małym wartościom drugiej zmiennej, duże wartości odpowiadają dużym. Dwie zmienne są ujemnie skorelowane, jeśli istnieje między nimi zależność odwrotna. Przy zależności wielokierunkowej małe wartości jednej zmiennej odpowiadają dużym wartościom drugiej zmiennej i odwrotnie. Wartości współczynników korelacji zawsze mieszczą się w przedziale od -1 do +1.
Współczynnik Spearmana stosuje się jako współczynnik korelacji między zmiennymi należącymi do skali porządkowej, a współczynnik korelacji Pearsona (moment iloczynów) stosuje się dla zmiennych należących do skali przedziałowej. W tym przypadku należy zauważyć, że każdą zmienną dychotomiczną, czyli zmienną należącą do skali nominalnej i posiadającą dwie kategorie, można uznać za porządkową.
Najpierw sprawdzimy, czy istnieje korelacja między zmiennymi płci i psychiki z pliku studium.sav. Czyniąc to, bierzemy pod uwagę, że dychotomiczną zmienną płeć można uznać za zmienną porządkową. Wykonaj następujące czynności:
Wybierz z menu poleceń Analizuj (Analiza) Statystyki opisowe (Statystyki opisowe) Tabele przestawne... (Tabele kontyngencji)
· Przenieś zmienną płeć na listę wierszy, a zmienną psyche na listę kolumn.
· Kliknij przycisk Statystyka.... W oknie dialogowym Tabele przestawne: Statystyki zaznacz pole Korelacje. Potwierdź swój wybór przyciskiem Kontynuuj.
· W oknie dialogowym Tabele przestawne zatrzymaj wyświetlanie tabel, zaznaczając pole wyboru Pomiń tabele. Kliknij przycisk OK.
Obliczone zostaną współczynniki korelacji Spearmana i Pearsona, a ich istotność zostanie sprawdzona:
/ SPSS 10
Zadanie nr 10 Analiza korelacji
Pojęcie korelacji
Korelacja lub współczynnik korelacji jest wskaźnikiem statystycznym probabilistyczny zależności między dwiema zmiennymi mierzonymi na skalach ilościowych. W przeciwieństwie do połączenia funkcjonalnego, w którym odpowiada każda wartość jednej zmiennej ściśle określone wartość innej zmiennej, związek probabilistyczny charakteryzujący się tym, że odpowiada każdej wartości jednej zmiennej zestaw wartości Inna zmienna. Przykładem związku probabilistycznego jest związek między wzrostem a wagą ludzi. Oczywiste jest, że ludzie o różnej wadze mogą mieć ten sam wzrost i odwrotnie.
Korelacja jest wartością pomiędzy -1 a + 1 i jest oznaczona literą r. Co więcej, jeśli wartość jest bliższa 1, oznacza to obecność silnego związku, a jeśli jest bliższa 0, to słabego. Wartość korelacji mniejsza niż 0,2 uważana jest za korelację słabą, powyżej 0,5 - wysoką. Jeśli współczynnik korelacji jest ujemny, oznacza to, że istnieje zależność odwrotna: im wyższa wartość jednej zmiennej, tym niższa wartość drugiej.
W zależności od przyjętych wartości współczynnika r można wyróżnić różne rodzaje korelacji:
Silna dodatnia korelacja jest określona przez wartość r=1. Termin „ścisły” oznacza, że wartość jednej zmiennej jest jednoznacznie określona przez wartości innej zmiennej, a termin „ pozytywne" -że wraz ze wzrostem wartości jednej zmiennej rośnie również wartość drugiej zmiennej.
Ścisła korelacja jest matematyczną abstrakcją i prawie nigdy nie występuje w prawdziwych badaniach.
pozytywna korelacja odpowiada wartościom 0
Brak korelacji jest określona przez wartość r=0. Współczynnik korelacji równy zero wskazuje, że wartości zmiennych nie są ze sobą w żaden sposób powiązane.
Brak korelacji H o : 0 r xy =0 sformułowane jako refleksja zero hipotezy w analizie korelacji.
Ujemna korelacja: -1
Silna korelacja ujemna określony przez wartość r= -1. Podobnie jak ścisła dodatnia korelacja jest abstrakcją i nie znajduje wyrazu w badaniach praktycznych.
Tabela 1
Rodzaje korelacji i ich definicje
Sposób obliczania współczynnika korelacji zależy od rodzaju skali, na której mierzone są wartości zmiennej.
Współczynnik korelacji rosoba jest głównym i może być stosowany do zmiennych o nominalnych i częściowo uporządkowanych skalach przedziałowych, których rozkład wartości odpowiada normalnemu (korelacja momentów iloczynu). Współczynnik korelacji Pearsona daje dość dokładne wyniki również w przypadku rozkładów nienormalnych.
W przypadku rozkładów, które nie są normalne, zaleca się stosowanie współczynników korelacji rang Spearmana i Kendalla. Są one uszeregowane, ponieważ program wstępnie uszeregowuje skorelowane zmienne.
Program SPSS oblicza korelację r-Spearmana w następujący sposób: najpierw zmienne są konwertowane na rangi, a następnie do rang stosowana jest formuła Pearsona.
Zaproponowana przez M. Kendalla korelacja opiera się na założeniu, że kierunek powiązania można ocenić porównując osoby badane parami. Jeśli dla pary badanych zmiana kierunku X pokrywa się ze zmianą kierunku Y, oznacza to dodatnią zależność. Jeśli nie pasuje, to o negatywnym związku. Współczynnik ten jest używany głównie przez psychologów pracujących z małymi próbami. Ponieważ socjologowie pracują z dużymi tablicami danych, trudno jest sortować pary, identyfikować różnice we względnych częstotliwościach i inwersjach wszystkich par podmiotów w próbie. Najczęstszym jest współczynnik. Osoba.
Ponieważ współczynnik korelacji rPearson jest współczynnikiem głównym i może być stosowany (z pewnym błędem zależnym od rodzaju skali i stopnia nieprawidłowości w rozkładzie) dla wszystkich zmiennych mierzonych na skalach ilościowych, rozważymy przykłady jego wykorzystania i porównamy wyniki uzyskane z wynikami pomiarów z wykorzystaniem innych współczynników korelacji.
Wzór na obliczenie współczynnika r- Osoba:
r xy = ∑ (Xi-Xav)∙(Yi-Yav) / (N-1)∙σ x ∙σ y ∙
Gdzie: Xi, Yi- Wartości dwóch zmiennych;
Xav, Yav - średnie wartości dwóch zmiennych;
σ x , σ y to odchylenia standardowe,
N to liczba obserwacji.
Korelacje par
Na przykład chcielibyśmy dowiedzieć się, jak odpowiedzi między różnymi typami tradycyjnych wartości korelują w wyobrażeniach uczniów na temat idealnego miejsca pracy (zmienne: a9.1, a9.3, a9.5, a9.7) , a następnie o stosunku wartości liberalnych (a9 .2, a9.4, a9.6, a9.8). Zmienne te są mierzone na 5-członowych uporządkowanych skalach.
Stosujemy procedurę: „Analiza”, „Korelacje”, „Sparowane”. Domyślnie współczynnik Pearsona ustawia się w oknie dialogowym. Korzystamy ze współczynnika osoba
Badane zmienne przenoszone są do okienka wyboru: a9.1, a9.3, a9.5, a9.7
Naciskając OK, otrzymujemy obliczenie:
Korelacje
a9.1.t. Jak ważne jest, aby mieć wystarczająco dużo czasu na życie rodzinne i osobiste? |
Korelacja Pearsona |
||||
Wartość (dwustronna) |
|||||
a9.3.t. Jak ważne jest, aby nie bać się utraty pracy? |
Korelacja Pearsona |
||||
Wartość (dwustronna) |
|||||
a9,5.t. Jak ważne jest mieć takiego szefa, który będzie się z Tobą konsultował przy podejmowaniu takiej czy innej decyzji? |
Korelacja Pearsona |
||||
Wartość (dwustronna) |
|||||
a9.7.t. Jak ważne jest, aby pracować w zgranym zespole, czuć się jego częścią? |
Korelacja Pearsona |
||||
Wartość (dwustronna) |
|||||
** Korelacja jest istotna na poziomie 0,01 (dwustronna).
Tabela wartości ilościowych skonstruowanej macierzy korelacji
Korelacje cząstkowe:
Najpierw zbudujmy korelację parami między tymi dwiema zmiennymi:
Korelacje |
|||
c8. Poczuj się blisko tych, którzy mieszkają blisko ciebie, sąsiedzi |
Korelacja Pearsona |
||
Wartość (dwustronna) |
|||
c12. Poczuj się blisko ich rodziny |
Korelacja Pearsona |
||
Wartość (dwustronna) |
|||
**. Korelacja jest istotna na poziomie 0,01 (dwustronna). |
Następnie stosujemy procedurę konstruowania korelacji cząstkowej: „Analiza”, „Korelacje”, „Częściowa”.
Załóżmy, że wartość „Ważne jest, aby samodzielnie określić i zmienić kolejność swojej pracy” w odniesieniu do wskazanych zmiennych będzie decydującym czynnikiem, pod wpływem którego wcześniej zidentyfikowana zależność zniknie lub okaże się mało istotna .
Korelacje |
||||
Wykluczone zmienne |
c8. Poczuj się blisko tych, którzy mieszkają blisko ciebie, sąsiedzi |
c12. Poczuj się blisko ich rodziny |
||
c16. Poczuj bliskość ludzi, którzy mają taki sam majątek jak Ty |
c8. Poczuj się blisko tych, którzy mieszkają blisko ciebie, sąsiedzi |
Korelacja |
||
Znaczenie (dwustronne) |
||||
c12. Poczuj się blisko ich rodziny |
Korelacja |
|||
Znaczenie (dwustronne) |
||||
Jak widać z tabeli, pod wpływem zmiennej kontrolnej zależność nieznacznie się obniżyła: z 0,120 do 0,102. pozostaje wystarczająco wysoka i pozwala obalić hipotezę zerową z zerowym błędem.
Współczynnik korelacji
Najdokładniejszym sposobem określenia szczelności i charakteru korelacji jest znalezienie współczynnika korelacji. Współczynnik korelacji to liczba określona wzorem:
gdzie rxy jest współczynnikiem korelacji;
x i – wartości pierwszej cechy;
i – wartości drugiej cechy;
Średnia arytmetyczna wartości pierwszej cechy
Średnia arytmetyczna wartości drugiej cechy
Aby skorzystać ze wzoru (32), konstruujemy tabelę, która zapewni niezbędną kolejność w przygotowaniu liczb do znalezienia licznika i mianownika współczynnika korelacji.
Jak widać ze wzoru (32) kolejność działań jest następująca: znajdujemy średnie arytmetyczne obu znaków x i y, znajdujemy różnicę między wartościami znaku i jego średnią (х i - ) i y i - ), to znajdujemy ich iloczyn (х i - ) ( y i - ) – suma tego ostatniego daje licznik współczynnika korelacji. Aby znaleźć jej mianownik, należy podnieść do kwadratu różnice (x i -) i (y i -), znaleźć ich sumy i wyciągnąć pierwiastek kwadratowy z ich iloczynu.
I tak na przykład 31, znalezienie współczynnika korelacji zgodnie ze wzorem (32) można przedstawić w następujący sposób (Tabela 50).
Otrzymana liczba współczynnika korelacji pozwala na stwierdzenie obecności, bliskości i charakteru związku.
1. Jeśli współczynnik korelacji wynosi zero, nie ma związku między cechami.
2. Jeśli współczynnik korelacji jest równy jeden, związek między cechami jest tak duży, że przechodzi w związek funkcjonalny.
3. Bezwzględna wartość współczynnika korelacji nie wykracza poza przedział od zera do jednego:
Pozwala to skupić się na szczelności połączenia: im współczynnik jest bliższy zeru, tym połączenie jest słabsze, a im bliżej jedności, tym połączenie jest bliższe.
4. Znak współczynnika korelacji „plus” oznacza korelację bezpośrednią, znak „minus” oznacza zależność przeciwną.
Stół 50
x ja | i | (х ja - ) | (y ja - ) | (x ja - ) (y ja - ) | (х ja - )2 | (y ja - )2 |
14,00 | 12,10 | -1,70 | -2,30 | +3,91 | 2,89 | 5,29 |
14,20 | 13,80 | -1,50 | -0,60 | +0,90 | 2,25 | 0,36 |
14,90 | 14,20 | -0,80 | -0,20 | +0,16 | 0,64 | 0,04 |
15,40 | 13,00 | -0,30 | -1,40 | +0,42 | 0,09 | 1,96 |
16,00 | 14,60 | +0,30 | +0,20 | +0,06 | 0,09 | 0,04 |
17,20 | 15,90 | +1,50 | +2,25 | 2,25 | ||
18,10 | 17,40 | +2,40 | +2,00 | +4,80 | 5,76 | 4,00 |
109,80 | 101,00 | 12,50 | 13,97 | 13,94 |
Zatem współczynnik korelacji obliczony w Przykładzie 31 wynosi rxy = +0,9. pozwala nam wyciągnąć następujące wnioski: istnieje korelacja między wielkością siły mięśni prawej i lewej ręki u badanych uczniów (współczynnik r xy \u003d + 0,9 jest niezerowy), zależność jest bardzo bliska (współczynnik r xy \u003d + 0,9 jest bliskie jedności), zależność jest bezpośrednia (współczynnik r xy = +0,9 jest dodatni), tj. wraz ze wzrostem siły mięśniowej jednej ręki rośnie siła drugiej.
Przy obliczaniu współczynnika korelacji i korzystaniu z jego właściwości należy wziąć pod uwagę, że wnioski dają prawidłowe wyniki, gdy cechy mają rozkład normalny i gdy uwzględni się związek między dużą liczbą wartości obu cech.
W rozpatrywanym przykładzie 31 przeanalizowano tylko 7 wartości obu cech, co oczywiście nie wystarcza do takich badań. Jeszcze raz przypominamy, że przykłady w tej książce w ogóle, aw tym rozdziale w szczególności, mają charakter ilustrujący metody, a nie szczegółową prezentację jakichkolwiek eksperymentów naukowych. W rezultacie bierze się pod uwagę niewielką liczbę wartości cech, pomiary są zaokrąglane - wszystko po to, aby nie zaciemniać idei metody uciążliwymi obliczeniami.
Szczególną uwagę należy zwrócić na istotę rozważanego związku. Współczynnik korelacji nie może prowadzić do poprawnych wyników badania, jeśli analiza zależności między cechami jest prowadzona formalnie. Wróćmy do przykładu 31. Oba rozpatrywane znaki to wartości siły mięśniowej prawej i lewej ręki. Wyobraźmy sobie, że przez cechę x i w przykładzie 31 (14,0; 14,2; 14,9... ...18,1) rozumiemy długość losowo złowionych ryb w centymetrach, a przez cechę y i (12,1 ; 13,8; 14,2 ... ... 17.4) - waga przyrządów w laboratorium w kilogramach. Formalnie, stosując aparat obliczeniowy do znalezienia współczynnika korelacji iw tym przypadku również uzyskując r xy =+0>9, powinniśmy byli dojść do wniosku, że istnieje ścisły związek o charakterze bezpośrednim między długością ryby a masą instrumenty. Absurdalność takiego wniosku jest oczywista.
Aby uniknąć formalnego podejścia do stosowania współczynnika korelacji, należy użyć dowolnej innej metody - matematycznej, logicznej, eksperymentalnej, teoretycznej - w celu zidentyfikowania możliwości korelacji między znakami, czyli wykrycia organicznej jedności znaków. Dopiero wtedy można zacząć stosować analizę korelacji i ustalać wielkość i charakter zależności.
W statystyce matematycznej istnieje również pojęcie wielokrotna korelacja- Relacje między trzema lub więcej cechami. W takich przypadkach stosuje się współczynnik korelacji wielokrotnej, składający się z opisanych powyżej współczynników korelacji parami.
Na przykład współczynnik korelacji trzech znaków - x і , y і , z і - wynosi:
gdzie R xyz - współczynnik korelacji wielokrotnej wyrażający zależność cechy x i od cech y i oraz z i ;
r xy - współczynnik korelacji między cechami x i oraz y i ;
r xz - współczynnik korelacji między cechami Xi i Zi;
r yz - współczynnik korelacji między cechami y i , z i
Analiza korelacji to:
Analiza korelacjiKorelacja- związek statystyczny dwóch lub więcej zmiennych losowych (lub zmiennych, które można uznać za takie z pewnym akceptowalnym stopniem dokładności). Jednocześnie zmiany jednej lub kilku z tych wielkości prowadzą do systematycznej zmiany pozostałych lub innych wielkości. Współczynnik korelacji służy jako matematyczna miara korelacji dwóch zmiennych losowych.
Korelacja może być dodatnia i ujemna (możliwe jest też, że nie ma zależności statystycznej – np. dla niezależnych zmiennych losowych). Ujemna korelacja - korelacja, w której wzrost jednej zmiennej wiąże się ze spadkiem innej zmiennej, przy czym współczynnik korelacji jest ujemny. pozytywna korelacja - korelacja, w której wzrost jednej zmiennej wiąże się ze wzrostem drugiej zmiennej, przy czym współczynnik korelacji jest dodatni.
autokorelacja - związek statystyczny między zmiennymi losowymi z tego samego szeregu, ale przyjęty z przesunięciem, np. dla procesu losowego - z przesunięciem w czasie.
Metoda przetwarzania danych statystycznych polegająca na badaniu współczynników (korelacji) między zmiennymi nazywa się analiza korelacji.
Współczynnik korelacji
Współczynnik korelacji lub współczynnik korelacji par w teorii prawdopodobieństwa i statystyce jest to wskaźnik charakteru zmiany dwóch zmiennych losowych. Współczynnik korelacji jest oznaczony łacińską literą R i może przyjmować wartości od -1 do +1. Jeśli wartość modulo jest bliższa 1, oznacza to obecność silnego związku (przy współczynniku korelacji równym jeden mówi się o związku funkcjonalnym), a jeśli jest bliższy 0, to słaby.
Współczynnik korelacji Pearsona
Dla wielkości metrycznych stosuje się współczynnik korelacji Pearsona, którego dokładny wzór wprowadził Francis Galton:
Wynajmować X,Y- dwie zmienne losowe zdefiniowane na tej samej przestrzeni prawdopodobieństwa. Wówczas ich współczynnik korelacji wyraża się wzorem:
![](https://i0.wp.com/i.zna4enie.ru/1/znachenie-kojefficienta-korreljacii_10.png)
![](https://i1.wp.com/i.zna4enie.ru/1/znachenie-kojefficienta-korreljacii_10.png)
gdzie cov jest kowariancją, a D jest wariancją lub równoważnie,
,gdzie symbol oznacza oczekiwanie matematyczne.
Aby graficznie przedstawić taką zależność, można użyć prostokątnego układu współrzędnych z osiami odpowiadającymi obu zmiennym. Każda para wartości jest oznaczona określonym symbolem. Taki wykres nazywa się „wykresem rozrzutu”.
Sposób obliczania współczynnika korelacji zależy od rodzaju skali, do której odnoszą się zmienne. Tak więc, aby mierzyć zmienne skalami przedziałowymi i ilościowymi, konieczne jest użycie współczynnika korelacji Pearsona (korelacja momentów iloczynu). Jeśli co najmniej jedna z dwóch zmiennych ma skalę porządkową lub nie ma rozkładu normalnego, należy zastosować korelację rang Spearmana lub τ (tau) Kendala. W przypadku, gdy jedna z dwóch zmiennych jest dychotomiczna, stosuje się korelację punktową dwóch szeregów, a gdy obie zmienne są dychotomiczne, stosuje się korelację czteropolową. Obliczenie współczynnika korelacji między dwiema zmiennymi niedychotomicznymi ma sens tylko wtedy, gdy zależność między nimi jest liniowa (jednokierunkowa).
Współczynnik korelacji Kendella
Służy do pomiaru wzajemnego zaburzenia.
Współczynnik korelacji Spearmana
Własności współczynnika korelacji
- Nierówność Cauchy'ego - Bunyakowskiego:
![](https://i1.wp.com/i.zna4enie.ru/a/znachenie-kojefficienta-korreljacii_14.png)
![](https://i1.wp.com/i.zna4enie.ru/a/znachenie-kojefficienta-korreljacii_14.png)
Analiza korelacji
Analiza korelacji- metoda przetwarzania danych statystycznych polegająca na badaniu współczynników ( korelacje) między zmiennymi. W tym przypadku porównuje się współczynniki korelacji między jedną parą lub wieloma parami cech, aby ustalić między nimi zależności statystyczne.
Cel analiza korelacji- podać informacje o jednej zmiennej za pomocą innej zmiennej. W przypadkach, w których możliwe jest osiągnięcie celu, mówimy, że zmienne korelat. W najbardziej ogólnej postaci przyjęcie hipotezy o występowaniu korelacji oznacza, że zmiana wartości zmiennej A nastąpi jednocześnie z proporcjonalną zmianą wartości zmiennej B: jeżeli obie zmienne rosną, to korelacja jest dodatnia jeśli jedna zmienna rośnie, a druga maleje, korelacja jest ujemna.
Korelacja odzwierciedla jedynie liniową zależność wielkości, ale nie odzwierciedla ich funkcjonalnej łączności. Na przykład, jeśli obliczymy współczynnik korelacji między wartościami A = sin(x) oraz B = cos(x), to będzie bliskie zeru, czyli nie ma zależności między wielkościami. Tymczasem wielkości A i B są oczywiście powiązane funkcjonalnie zgodnie z prawem sin 2(x) + cos 2(x) = 1.
Ograniczenia analizy korelacji
![](https://i1.wp.com/i.zna4enie.ru/d/znachenie-kojefficienta-korreljacii_22.png)
![](https://i0.wp.com/i.zna4enie.ru/d/znachenie-kojefficienta-korreljacii_22.png)
- Zastosowanie jest możliwe, jeśli istnieje wystarczająca liczba przypadków do zbadania: dla określonego typu współczynnika korelacji mieści się on w przedziale od 25 do 100 par obserwacji.
- Drugie ograniczenie wynika z hipotezy analizy korelacji, która obejmuje liniowa zależność zmiennych. W wielu przypadkach, gdy wiadomo, że zależność istnieje, analiza korelacji może nie dać wyników po prostu dlatego, że zależność jest nieliniowa (wyrażona na przykład jako parabola).
- Sam fakt korelacji nie daje podstaw do twierdzenia, która ze zmiennych poprzedza lub powoduje zmiany, ani że zmienne są generalnie powiązane ze sobą przyczynowo, na przykład w wyniku działania czynnika trzeciego.
Obszar zastosowań
Ta metoda przetwarzania danych statystycznych jest bardzo popularna w naukach ekonomicznych i społecznych (w szczególności w psychologii i socjologii), choć zakres zastosowania współczynników korelacji jest szeroki: kontrola jakości wyrobów przemysłowych, metalurgia, chemia rolnicza, hydrobiologia, biometria, i inni.
Popularność metody wynika z dwóch powodów: współczynniki korelacji są stosunkowo łatwe do obliczenia, ich zastosowanie nie wymaga specjalnego przygotowania matematycznego. W połączeniu z łatwością interpretacji, łatwość stosowania współczynnika doprowadziła do jego szerokiego zastosowania w dziedzinie statystycznej analizy danych.
fałszywa korelacja
Często kusząca prostota badania korelacyjnego skłania badacza do wyciągania błędnych intuicyjnych wniosków o istnieniu związku przyczynowego między parami cech, podczas gdy współczynniki korelacji ustalają jedynie zależności statystyczne.
We współczesnej metodologii ilościowej nauk społecznych faktycznie odstąpiono od prób ustalania związków przyczynowych między obserwowanymi zmiennymi metodami empirycznymi. Dlatego też, gdy badacze nauk społecznych mówią o ustaleniu relacji między badanymi zmiennymi, implikuje się albo ogólne założenie teoretyczne, albo zależność statystyczną.
Zobacz też
- Funkcja autokorelacji
- Funkcja korelacji krzyżowej
- kowariancja
- Współczynnik determinacji
- Analiza regresji
Fundacja Wikimedia. 2010.
Różne funkcje mogą być powiązane.
Istnieją 2 rodzaje połączeń między nimi:
- funkcjonalny;
- korelacja.
Korelacja przetłumaczone na język rosyjski - nic więcej niż połączenie.
W przypadku korelacji istnieje zgodność kilku wartości jednego atrybutu z kilkoma wartościami innego atrybutu. Jako przykłady możemy rozważyć ustalone korelacje między:
- długość łap, szyi, dzioba u ptaków takich jak czaple, żurawie, bociany;
- wskaźniki temperatury ciała i tętna.
Dla większości procesów biomedycznych obecność tego typu powiązań została potwierdzona statystycznie.
Metody statystyczne pozwalają stwierdzić fakt istnienia współzależności cech. Zastosowanie w tym celu specjalnych obliczeń prowadzi do ustalenia współczynników korelacji (miar łączności).
Takie obliczenia są tzw analiza korelacji. Przeprowadza się go w celu potwierdzenia zależności 2 zmiennych (zmiennych losowych) od siebie, co wyraża współczynnik korelacji.
Zastosowanie metody korelacji pozwala rozwiązać kilka problemów:
- zidentyfikować związek między analizowanymi parametrami;
- wiedza o występowaniu korelacji pozwala na rozwiązywanie problemów prognostycznych. Istnieje zatem realna możliwość przewidywania zachowania się parametru na podstawie analizy zachowania się innego skorelowanego parametru;
- klasyfikacja oparta na doborze cech niezależnych od siebie.
Dla zmiennych:
- w odniesieniu do skali porządkowej obliczany jest współczynnik Spearmana;
- związany ze skalą interwałową – współczynnik Pearsona.
Są to najczęściej używane parametry, ale są też inne.
Wartość współczynnika można wyrazić zarówno dodatnio, jak i ujemnie.
W pierwszym przypadku wraz ze wzrostem wartości jednej zmiennej obserwuje się wzrost drugiej. Przy ujemnym współczynniku wzór jest odwrócony.
Do czego służy współczynnik korelacji?
Zmienne losowe powiązane ze sobą mogą mieć zupełnie inny charakter tego związku. Niekoniecznie będzie to funkcjonalne, w przypadku gdy istnieje bezpośredni związek między wielkościami. Najczęściej na obie wielkości ma wpływ cały zespół różnych czynników, w przypadkach, gdy są one wspólne dla obu wielkości, obserwuje się powstawanie powiązanych wzorców.
Oznacza to, że statystycznie udowodniony fakt istnienia zależności między wielkościami nie jest potwierdzeniem ustalenia przyczyny obserwowanych zmian. Z reguły badacz dochodzi do wniosku, że istnieją dwie powiązane ze sobą konsekwencje.
Własności współczynnika korelacji
Ta statystyka ma następujące właściwości:
- wartość współczynnika wynosi od -1 do +1. Im bliżej wartości ekstremalnych, tym silniejszy dodatni lub ujemny związek między parametrami liniowymi. W przypadku wartości zerowej mówimy o braku korelacji między cechami;
- dodatnia wartość współczynnika wskazuje, że w przypadku wzrostu wartości jednego atrybutu obserwuje się wzrost drugiego (korelacja dodatnia);
- wartość ujemna – w przypadku wzrostu wartości jednego atrybutu obserwuje się spadek drugiego (korelacja ujemna);
- zbliżanie się wartości wskaźnika do skrajnych punktów (-1 lub +1) wskazuje na występowanie bardzo silnej zależności liniowej;
- wskaźniki cech mogą zmieniać się przy stałej wartości współczynnika;
- współczynnik korelacji jest wielkością bezwymiarową;
- obecność korelacji nie jest obowiązkowym potwierdzeniem związku przyczynowego.
Wartości współczynników korelacji
Siłę korelacji można scharakteryzować, odwołując się do skali Cheldok, w której cecha jakościowa odpowiada określonej wartości liczbowej.
W przypadku dodatniej korelacji według wartości:
- 0-0,3 – korelacja jest bardzo słaba;
- 0,3-0,5 - słaby;
- 0,5-0,7 - średnia siła;
- 0,7-0,9 - wysoki;
- 0,9-1 - bardzo wysoka siła korelacji.
Skala może być również używana do korelacji ujemnej. W tym przypadku cechy jakościowe są zastępowane przez przeciwne.
Można posłużyć się uproszczoną skalą Cheldok, w której wyróżnia się tylko 3 gradacje siły korelacji:
- bardzo silny - wskaźniki ± 0,7 - ± 1;
- średnia - wskaźniki ± 0,3 - ± 0,699;
- bardzo słaby - wskaźniki 0 - ± 0,299.
Ten wskaźnik statystyczny pozwala nie tylko przetestować założenie o istnieniu liniowej zależności między cechami, ale także ustalić jej siłę.
Rodzaje współczynników korelacji
Współczynniki korelacji można sklasyfikować według znaku i wartości:
- pozytywny;
- zero;
- negatywny.
W zależności od analizowanych wartości obliczany jest współczynnik:
- Osoba;
- Włócznik;
- Kendala;
- Znaki Fechnera;
- zgodność lub korelacja wielu rang.
Współczynnik korelacji Pearsona służy do ustalenia bezpośrednich powiązań między wartościami bezwzględnymi zmiennych. W takim przypadku rozkłady obu serii zmiennych powinny zbliżać się do normalności. Porównywane zmienne powinny różnić się taką samą liczbą różnych cech. Skala reprezentująca zmienne musi być skalą interwałową lub skalą ilorazową.
- precyzyjne ustalenie siły korelacji;
- porównanie cech ilościowych.
Istnieje kilka wad stosowania współczynnika korelacji liniowej Pearsona:
- metoda jest niestabilna w przypadku wartości odstających od wartości liczbowych;
- za pomocą tej metody można określić siłę korelacji tylko dla zależności liniowej, dla innych typów wzajemnych zależności zmiennych należy zastosować metody analizy regresji.
Korelację rang określa się metodą Spearmana, która umożliwia statystyczne badanie zależności między zjawiskami. Dzięki temu współczynnikowi obliczany jest rzeczywisty stopień równoległości dwóch wyrażonych ilościowo szeregów cech, a także szacowana jest bliskość identyfikowanej zależności.
- nie wymagające dokładnego określenia wartości siły korelacji;
- porównywane wskaźniki mają zarówno wartości ilościowe, jak i atrybutywne;
- porównanie rzędów cech z otwartymi wariantami wartości.
Metoda Spearmana odnosi się do metod analizy nieparametrycznej, więc nie ma potrzeby sprawdzania normalności rozkładu cech. Dodatkowo umożliwia porównanie wskaźników wyrażonych w różnych skalach. Na przykład porównanie wartości liczby krwinek czerwonych w określonej objętości krwi (skala ciągła) i ocena eksperta wyrażona w punktach (skala porządkowa).
Na skuteczność metody negatywnie wpływa duża różnica między wartościami porównywanych wartości. Metoda jest również nieskuteczna w przypadkach, gdy mierzona wartość charakteryzuje się nierównomiernym rozkładem wartości.
Obliczanie krok po kroku współczynnika korelacji w Excelu
Obliczenie współczynnika korelacji polega na sekwencyjnym wykonaniu szeregu operacji matematycznych.
Powyższy wzór na obliczenie współczynnika Pearsona pokazuje, jak pracochłonny jest ten proces, jeśli jest wykonywany ręcznie.
Wykorzystanie możliwości programu Excel czasami przyspiesza proces znajdowania współczynnika.
Wystarczy postępować zgodnie z prostym algorytmem działań:
- wprowadzenie podstawowych informacji - kolumna wartości x i kolumna wartości y;
- w narzędziach wybrana i otwarta zakładka Formuły;
- w zakładce, która się otworzy, wybierz „Wstaw funkcję fx”;
- w oknie dialogowym, które zostanie otwarte, wybrana jest funkcja statystyczna „Korrel”, która pozwala obliczyć współczynnik korelacji między 2 tablicami danych;
- dane wprowadza się w oknie, które zostanie otwarte: tablica 1 - zakres wartości kolumny x (dane muszą być zaznaczone), tablica 2 - zakres wartości kolumny y;
- wciśnięty klawisz „OK”, wynik obliczenia współczynnika pojawi się w wierszu „wartość”;
- wniosek dotyczący obecności korelacji między 2 zestawami danych i jej siły.
Model korelacji (CM) to program obliczeniowy, który zapewnia równanie matematyczne, w którym wynikowy wskaźnik jest określany ilościowo w zależności od jednego lub większej liczby wskaźników.
yx \u003d ao + a1x1
gdzie: y – wskaźnik wykonania, zależny od czynnika x;
x - znak czynnika;
a1 - parametr KM, pokazujący, o ile zmieni się efektywny wskaźnik y, gdy czynnik x zmieni się o jeden, jeśli jednocześnie wszystkie inne czynniki wpływające na y pozostaną niezmienione;
ao - parametr KM, który pokazuje wpływ wszystkich innych czynników na efektywny wskaźnik y, z wyjątkiem znaku czynnika x
Przy wyborze wskaźników efektywnych i czynnikowych modelu należy wziąć pod uwagę fakt, że wskaźnik efektywny w łańcuchu związków przyczynowo-skutkowych jest na wyższym poziomie niż wskaźniki czynnikowe.
Charakterystyka modelu korelacyjnego
Po obliczeniu parametrów modelu korelacji obliczany jest współczynnik korelacji.
p - współczynnik korelacji par, -1 ≤ p ≤ 1, pokazuje siłę i kierunek wpływu wskaźnika czynnikowego na efektywny. Im bliżej 1, tym związek silniejszy, im bliżej 0, tym związek słabszy. Jeśli współczynnik korelacji jest dodatni, to zależność jest bezpośrednia, jeśli jest ujemna, jest odwrotna.
Wzór na współczynnik korelacji: pxy \u003d (xy-x * 1 / y) / eh * ey
ex=xx2-(x)2 ; eu=y2-(y)2
Jeśli CM jest liniowy wieloczynnikowy, mający postać:
yx \u003d ao + a1x1 + a2x2 + ... + axp
następnie obliczany jest dla niego współczynnik korelacji wielokrotnej.
0 ≤ Р ≤ 1 i pokazuje siłę wpływu wszystkich wskaźników czynnikowych razem wziętych na efektywny.
P. \u003d 1- ((uh-uy) 2 / (yi - usr) 2)
Gdzie: uh - wskaźnik efektywny - wartość obliczona;
ui - rzeczywista wartość;
usr - wartość rzeczywista, średnia.
Obliczoną wartość yx otrzymujemy w wyniku podstawienia do modelu korelacji zamiast x1, x2 itd. ich rzeczywiste wartości.
Dla jednoczynnikowych i wieloczynnikowych modeli nieliniowych współczynnik korelacji oblicza się:
1 ≤ m ≤ 1;
Uważa się, że związek między wskaźnikami efektywnymi i czynnikowymi zawartymi w modelu jest słaby, jeśli wartość współczynnika bliskości związku (m) mieści się w przedziale 0-0,3; jeśli 0,3-0,7 - szczelność połączenia jest średnia; powyżej 0,7-1 - połączenie jest silne.
Ponieważ współczynnik korelacji (sparowany) p, współczynnik korelacji (wielokrotny) P, współczynnik korelacji m są wartościami probabilistycznymi, to dla nich oblicza się ich współczynniki istotności (wyznaczone z tablic). Jeśli współczynniki te są większe niż ich wartość tabelaryczna, to współczynniki bliskości związku są istotnymi przyczynami. Jeżeli współczynniki istotności szczelności połączenia są mniejsze od wartości tabelarycznych lub sam współczynnik połączenia jest mniejszy niż 0,7, to nie wszystkie wskaźniki czynnikowe, które istotnie wpływają na wynik, są uwzględniane w modelu.
Współczynnik determinacji wyraźnie pokazuje, jaki procent wskaźników czynnikowych zawartych w modelu determinuje kształtowanie się wyniku.
Jeżeli współczynnik determinacji jest większy niż 50, to model adekwatnie opisuje badany proces, jeśli jest mniejszy niż 50, to należy powrócić do pierwszego etapu budowy i zweryfikować dobór wskaźników czynnikowych do uwzględnienia w Model.
Współczynnik Fishera lub kryterium Fishera charakteryzuje efektywność modelu jako całości. Jeżeli obliczona wartość współczynnika przekracza wartość tabelaryczną, wówczas skonstruowany model nadaje się do analizy, a także do planowania wskaźników, obliczeń na przyszłość. Przybliżona wartość tabelaryczna \u003d 1,5. Jeżeli obliczona wartość jest mniejsza od wartości z tabeli, konieczne jest najpierw zbudowanie modelu z uwzględnieniem czynników, które znacząco wpływają na wynik. Oprócz efektywności modelu jako całości, każdy współczynnik regresji wpływa na istotność. Jeżeli obliczona wartość tego współczynnika przekroczyła wartość tabelaryczną, to współczynnik regresji będzie istotny, jeżeli będzie mniejszy, to wskaźnik czynnika, dla którego obliczany jest ten współczynnik, jest usuwany z próby, obliczenia rozpoczynają się od nowa, ale bez tego współczynnika .
Współczynnik korelacji to stopień powiązania między dwiema zmiennymi. Jego obliczenie daje wyobrażenie o tym, czy istnieje związek między dwoma zestawami danych. W przeciwieństwie do regresji, korelacja nie pozwala na przewidywanie wartości. Jednak obliczenie współczynnika jest ważnym krokiem we wstępnej analizie statystycznej. Stwierdziliśmy na przykład, że współczynnik korelacji między poziomem bezpośrednich inwestycji zagranicznych a wzrostem PKB jest wysoki. Daje to wyobrażenie, że dla zapewnienia dobrobytu konieczne jest stworzenie sprzyjającego klimatu specjalnie dla zagranicznych przedsiębiorców. Nie tak oczywisty wniosek na pierwszy rzut oka!
Korelacja i związek przyczynowy
Być może nie ma ani jednego obszaru statystyki, który byłby tak mocno ugruntowany w naszym życiu. Współczynnik korelacji jest stosowany we wszystkich obszarach wiedzy publicznej. Jej główne niebezpieczeństwo polega na tym, że często jej wysokie wartości są spekulowane w celu przekonania ludzi i przekonania ich do pewnych wniosków. Jednak w rzeczywistości silna korelacja wcale nie wskazuje na związek przyczynowy między wielkościami.
Współczynnik korelacji: wzór Pearsona i Spearmana
Istnieje kilka głównych wskaźników charakteryzujących związek między dwiema zmiennymi. Historycznie pierwszy to współczynnik korelacji liniowej Pearsona. Jest przekazywana w szkole. Został opracowany przez K. Pearsona i J. Yule na podstawie prac ks. Galton. Ten współczynnik pozwala zobaczyć związek między liczbami wymiernymi, które zmieniają się racjonalnie. Jest zawsze większa niż -1 i mniejsza niż 1. Liczba ujemna oznacza zależność odwrotnie proporcjonalną. Jeśli współczynnik wynosi zero, to nie ma związku między zmiennymi. Równe liczbie dodatniej - istnieje wprost proporcjonalna zależność między badanymi wielkościami. Współczynnik korelacji rang Spearmana umożliwia uproszczenie obliczeń poprzez zbudowanie hierarchii wartości zmiennych.
Relacje między zmiennymi
Korelacja pomaga odpowiedzieć na dwa pytania. Po pierwsze, czy związek między zmiennymi jest dodatni czy ujemny. Po drugie, jak silne jest uzależnienie. Analiza korelacji jest potężnym narzędziem do uzyskiwania tych ważnych informacji. Łatwo zauważyć, że dochody i wydatki gospodarstw domowych rosną i maleją proporcjonalnie. Taki związek jest uważany za pozytywny. Wręcz przeciwnie, gdy cena produktu rośnie, popyt na niego spada. Taki związek nazywamy negatywnym. Wartości współczynnika korelacji mieszczą się w przedziale od -1 do 1. Zero oznacza brak związku między badanymi wartościami. Im wskaźnik jest bliższy skrajnym wartościom, tym silniejszy jest związek (ujemny lub dodatni). O braku zależności świadczy współczynnik od -0,1 do 0,1. Należy rozumieć, że taka wartość wskazuje jedynie na brak zależności liniowej.
Funkcje aplikacji
Stosowanie obu wskaźników obwarowane jest pewnymi założeniami. Po pierwsze, obecność silnego związku nie przesądza o tym, że jedna wartość determinuje drugą. Równie dobrze może istnieć trzecia wielkość, która definiuje każdą z nich. Po drugie, wysoki współczynnik korelacji Pearsona nie wskazuje na związek przyczynowy między badanymi zmiennymi. Po trzecie, wykazuje wyłącznie zależność liniową. Korelację można wykorzystać do oceny znaczących danych ilościowych (np. ciśnienia barometrycznego, temperatury powietrza), a nie kategorii, takich jak płeć czy ulubiony kolor.
Wielokrotny współczynnik korelacji
Pearson i Spearman zbadali związek między dwiema zmiennymi. Ale co zrobić, jeśli jest ich trzech lub nawet więcej. W tym miejscu pojawia się współczynnik korelacji wielokrotnej. Na przykład na produkt narodowy brutto wpływają nie tylko bezpośrednie inwestycje zagraniczne, ale także polityka pieniężna i fiskalna państwa oraz poziom eksportu. Tempo wzrostu i wielkość PKB są wypadkową interakcji wielu czynników. Należy jednak rozumieć, że model korelacji wielorakich opiera się na szeregu uproszczeń i założeń. Po pierwsze, wyklucza się współliniowość między wielkościami. Po drugie, zakłada się, że związek między zmienną zależną a zmiennymi, które na nią wpływają, jest liniowy.
Obszary zastosowania analizy korelacji i regresji
Ta metoda znajdowania zależności między wielkościami jest szeroko stosowana w statystyce. Najczęściej stosuje się go w trzech głównych przypadkach:
- Do testowania związków przyczynowych między wartościami dwóch zmiennych. W rezultacie badacz ma nadzieję znaleźć zależność liniową i wyprowadzić wzór opisujący te zależności między wielkościami. Ich jednostki miary mogą być różne.
- Aby sprawdzić związek między wartościami. W tym przypadku nikt nie określa, która zmienna jest zależna. Może się okazać, że o wartości obu wielkości decyduje jakiś inny czynnik.
- Aby wyprowadzić równanie. W takim przypadku możesz po prostu podstawić do niego liczby i znaleźć wartości nieznanej zmiennej.
Człowiek poszukujący związku przyczynowego
Świadomość jest tak ułożona, że zdecydowanie musimy wyjaśnić zdarzenia, które mają miejsce wokół. Człowiek zawsze szuka związku między obrazem świata, w którym żyje, a informacjami, które otrzymuje. Często mózg tworzy porządek z chaosu. Z łatwością widzi związek przyczynowy tam, gdzie go nie ma. Naukowcy muszą szczególnie nauczyć się przezwyciężać ten trend. Umiejętność oceny relacji między danymi jest obiektywnie niezbędna w karierze akademickiej.
Stronniczość mediów
Zastanów się, w jaki sposób obecność korelacji może zostać błędnie zinterpretowana. Grupa niegrzecznych brytyjskich studentów została zapytana, czy ich rodzice palili. Następnie test został opublikowany w gazecie. Wynik wykazał silną korelację między paleniem przez rodziców a przestępczością ich dzieci. Profesor, który przeprowadził to badanie, zasugerował nawet umieszczenie ostrzeżenia o tym na paczkach papierosów. Z wnioskiem tym wiąże się jednak szereg problemów. Po pierwsze, korelacja nie wskazuje, która z wielkości jest niezależna. Dlatego całkiem możliwe jest założenie, że zgubny nawyk rodziców jest spowodowany nieposłuszeństwem dzieci. Po drugie, nie można z całą pewnością powiedzieć, że oba problemy nie powstały z powodu jakiegoś trzeciego czynnika. Na przykład rodziny o niskich dochodach. Warto zwrócić uwagę na emocjonalny aspekt wstępnych wniosków profesora, który przeprowadził badanie. Był zagorzałym przeciwnikiem palenia. Nic więc dziwnego, że tak zinterpretował wyniki swoich badań.
wnioski
Błędna interpretacja korelacji jako związku przyczynowego między dwiema zmiennymi może prowadzić do kłopotliwych błędów badawczych. Problem polega na tym, że leży on w samym centrum ludzkiej świadomości. Wiele sztuczek marketingowych opiera się na tej funkcji. Zrozumienie różnicy między przyczynowością a korelacją pozwala racjonalnie analizować informacje zarówno w życiu codziennym, jak iw karierze zawodowej.