A | B | C | D | E | F | G | H | CH | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9
A matematikában (a statisztikában) a korreláció jelzi két tetszőleges érték közötti lineáris kapcsolat nagyságát és irányát (avagy ezek egymáshoz való viszonyát). Az általános statisztikai használat során a korreláció jelzi azt, hogy két tetszőleges érték nem független egymástól. Az ilyen széles körű használat során számos együttható, érték jellemzi a korrelációt, alkalmazkodva az adatok fajtájához.
A korreláció csak a lineáris kapcsolatot jelzi. Például egy valószínűségi változó és négyzete korrelációja lehet nulla. Ha két véletlen mennyiség korrelációja nulla, akkor korrelálatlanok; ilyenkor a kapcsolatot, ha van, másként kell jellemezni, például feltételes valószínűségekkel. A normális eloszlású valószínűségi változókra jellemző, hogy ha korrelálatlanok, akkor függetlenek is. Így a korreláció jól alkalmazható normális eloszlásúnak tekinthető mérhető mennyiségek közötti kapcsolat erősségének mérésére.
Másfajta összefüggések kimutatására más eszközök kellenek. Használható például a kölcsönös információ:
vagy a feltételes valószínűségek. Az A eseménynek a B eseményre vonatkozó feltételes valószínűsége megadja az A esemény bekövetkezésének a valószínűségét, feltéve hogy a B esemény bekövetkezik.
Van olyan, a korrelációhoz hasonló eszköz, amivel bármilyen függvénykapcsolat kimutatható.
Korrelációs együttható
A korrelációs együttható (r) előjele a kapcsolat irányát mutatja meg, a nagysága (0-1 közötti szám) pedig az együtt járás szorosságát, az összefüggés erejét mutatja.
A korrelációs együttható jelölései
- Populációbeli (elméleti) korrelációs együttható jelölése:
- ρ(ejtsd: ró), ρxy, ρ(x,y)
- Mintabeli (Pearson-féle) korrelációs együttható jelölése:
- r, rxy, r(x,y)
A korrelációs együttható jellemzői[1]1">szerkesztés
- -1 ≤ r ≤ +1; -1 ≤ ρ ≤ +1
- Ha X és Y független, akkor r(X,Y) = 0
- Ha r(X,Y) = 0, vagyis ha X és Y korrelálatlan, akkor nem feltétlenül függetlenek, de biztos, hogy nincs köztük lineáris típusú összefüggés.
Korreláció számításaszerkesztés
A korreláció a következő képlettel számítható:
ahol a várható értéket, a szórást jelöli.
A statisztikában nem állnak rendelkezésre az elméleti értékek, így a tapasztalati korrelációt a következőképpen számítják:
ahol és rendre és tapasztalati átlagát, valamint és a tapasztalati korrigált szórást jelölik.
Korrelációt számíthatunk statisztikai programok segítségével is. A statisztikai elemzések/analyze menüpontban találhatjuk meg. A programok közölnek leíró statisztikát, megadják az r korrelációs együttható értékét, és a szignifikanciaszintet (p/sig jelöléssel), esetleg a konfidenciaintervallumot is.
Szignifikancia számításaszerkesztés
A korrelációs együttható szignifikanciájának vizsgálatához a H0: ρ = 0 hipotézist fogalmazzuk meg. Döntésünk alapja egy n elemű mintában kiszámított korrelációs együttható (r).
A H0 elutasíthatósága függ az r együttható nagyságától és az f szabadságfok nagyságától (f = n-2).
A szignifikancia kiszámításához t eloszlású statisztikát használunk. Ennek képlete:
Az egyenlet eredményének és a t eloszlású változó eloszlásának statisztikai táblája segítségével határozhatjuk meg, hogy eredményünk szignifikáns-e, és ha igen, akkor milyen mértékben.
Ha |t| > ttable, elvetjük H0-t és azt mondjuk, hogy a populáció korrelációs együtthatója különbözik 0-tól. Tehát, ha a kapott eredményünk abszolút értéke nagyobb, mint a táblázatban az adott szabadságfokhoz és szignifikanciaszinthez (ez általában 0,95) tartozó szám, akkor 95%-os bizonyossággal elutasíthatjuk a nullhipotézist.
Korrelációmátrixszerkesztés
Az valószínűségi vektorváltozó korrelációmátrixa
n valószínűségi változó (X1, ..., Xn), korrelációja egy n × n-es mátrix, amiben az i,j-edik elem corr(Xi, Xj).
A korrelációmátrix szimmetrikus, mert Xi és Xj korrelációja megegyezik Xj és Xi korrelációjával. A valószínűségi változók normalizáltjainak kovarianciamátrixa megegyezik az adott valószínűségi mátrix kovarianciamátrixával, ezért pozitív definit.
Parciális korrelációszerkesztés
A parciális korreláció n > 2 valószínűségi változó esetén azt méri, hogy két valószínűségi változó milyen kapcsolatban áll egymással a többi változótól eltekintve.
Érzékenységszerkesztés
A korreláció nem függ az adatok nagyságától, de érzékeny a mintavételezésre. Egy szűkebb mintából számított korreláció rendszerint kisebb, mint a bővebb mintából számolt. Például, ha az apák és fiaik magasságának korrelációját számítjuk, akkor a teljes mintán erősebb összefüggést észlelünk, mintha csak azokon az adatokkal dolgoznánk, amik szerint az apák magassága 165 cm és 170 cm közé esik.
A korreláció érzékeny a kivételes adatokra (outlierek). Egy kivételes adat nagyon lecsökkentheti, vagy megnövelheti. Francis Anscombe példájában[2] a négy y változónak ugyanaz a várható értéke (7,5), szórása (4,12), korrelációja (0,816), és a regressziós egyenese (y = 4 + 0,5x), a tapasztalati eloszlások mégis különböző képet adnak. A harmadik képen egy kivételes adat lecsökkenti az 1 korrelációt 0,816-re; a negyediken a független adatok 0 korrelációját ugyanennyire növeli. A korreláció nem veszi észre a második képen látható nemlineáris összefüggést sem.
Példákszerkesztés
- Az intelligencia és a kreativitás normális eloszlásúnak tekinthető. A különféle mérések szerint korrelációs együtthatójuk 0,19-0,39 közé esik. Ez a korreláció gyengének számít. Ezért mondják, hogy az intelligencia és a kreativitás között nincs kapcsolat.
- Legyen az A tulajdonság előfordulásának valószínűsége , a B tulajdonságé , a két tulajdonság együttes előfordulásának valószínűsége . Ekkor A és B korrelációja 0,01483, gyakorlatilag nem létezik, bár mindkét feltételes valószínűség jóval nagyobb a nem feltételesnél: P(A|B) = 0,125 és P(B|A) = 0,09375, tehát a két tulajdonság nem független.
Alkalmazásokszerkesztés
Az idősorok elemzésében és a jelfeldolgozásban gyakran alkalmazzák a korrelációt az összehasonlításokban.
- Ha kiszámítjuk két adatsor értékkészletének korrelációját, akkor keresztkorrelációt kapunk.
- Ha egy adatsort és egy eltoltjának korrelációját számoljuk így ki, akkor autokorrelációról beszélünk.
A keresztkorreláció segít a két adatsor közötti összefüggés megtalálásában. Ha az egyik adatsort eltoljuk, akkor késleltetett hatások is felfedezhetők. Az autokorrelációval periódusok mutathatók ki az adatsorban.
A jelfeldolgozásban diszkrét adatsor helyett folytonos jelekkel is dolgoznak. Így adódik:
- a keresztkorreláció-függvény:
- az autokorreláció-függvény:
Analóg multiméterek túlterhelés elleni védelme
Egyenáram
Egyenáram mérése
Egyenirányítós lengőtekercses műszer
Elektromágnes (fizika)
Elektromos feszültség
Elektromos térerősség
Fáziseltolódás
Fázismutató
Fajlagos ellenállás
Feszültséggenerátor
Feszültségváltó
Forgó mágneses tér
Háromfázisú hálózat
Hőelektromosság
Hatásos ellenállás
A lap szövege Creative Commons Nevezd meg! – Így add tovább! 3.0 licenc alatt van; egyes esetekben más módon is felhasználható. Részletekért lásd a felhasználási feltételeket.