Korelace

Z Multimediaexpo.cz

Crystal Clear help index.png   Informace uvedené v tomto článku je potřeba ověřit.
  Prosíme, pomozte vylepšit tento článek doplněním věrohodných zdrojů.
Crystal Clear help index.png

Korelace (z lat.) znamená vzájemný vztah mezi dvěma procesy nebo veličinami. Pokud se jedna z nich mění, mění se korelativně i druhá a naopak. Pokud se mezi dvěma procesy ukáže korelace, je pravděpodobné, že na sobě závisejí, nelze z toho však ještě usoudit, že by jeden z nich musel být příčinou a druhý následkem. To samotná korelace nedovoluje rozhodnout. V určitějším slova smyslu se pojem korelace užívá ve statistice, kde znamená vzájemný lineární vztah mezi znaky či veličinami x a y. Míru korelace pak vyjadřuje korelační koeficient, který může nabývat hodnot od −1 až po +1.

Obsah

Korelace ve statistice

Na obrázku je několik příkladů grafického zobrazení naměřených dat a koeficienty jejich korelace s funkcí y = x

Vztah mezi znaky či veličinami x a y může být kladný, pokud (přibližně) platí y = kx, nebo záporný (y = -kx). Hodnota korelačního koeficientu −1 značí zcela nepřímou závislost (antikorelaci), tedy čím více se zvětší hodnoty v první skupině znaků, tím více se zmenší hodnoty v druhé skupině znaků, např. vztah mezi uplynulým a zbývajícím časem. Hodnota korelačního koeficientu +1 značí zcela přímou závislost, např. vztah mezi rychlostí bicyklu a frekvencí otáček kola bicyklu. Pokud je korelační koeficient roven 0 (nekorelovanost), pak mezi znaky není žádná statisticky zjistitelná lineární závislost. Je dobré si uvědomit, že i při nulovém korelačním koeficientu na sobě veličiny mohou záviset, pouze tento vztah nelze vyjádřit lineární funkcí, a to ani přibližně.

Výpočet Pearsonova korelačního koeficientu

Vypočteme aritmetické průměry souborů X a Y (E(X) a E(Y)), vynásobíme sumy odchylek od těchto průměrů obou souborů. Tím jsme spočetli tzv. kovarianci, což je však absolutní veličina, pro výpočet relativní veličiny pak kovarianci dělíme násobkem odmocnin rozptylů souborů X a Y.

\(\rho_{X,Y}={\mathrm{cov}(X,Y) \over \sigma_X \sigma_Y} ={E((X-\mu_X)(Y-\mu_Y)) \over \sigma_X\sigma_Y},\)

Protože μX = E(X), \(\sigma^2_X = E(X^2) - E^2(X)\) a obdobně pro Y, můžeme psát:

\(\rho_{X,Y}=\frac{E(XY)-E(X)E(Y)}{\sqrt{E(X^2)-E^2(X)}~\sqrt{E(Y^2)-E^2(Y)}}\)

Koeficient korelace nabývá hodnot z intervalu \(\langle -1,1\rangle\). Při nezávislosti veličin X a Y je koeficient korelace roven 0. Tento koeficient jako první odvodil anglický psycholog a antropolog sir Francis Galton.

Korelace v teorii signálů

Hlavní článek: korelace (zpracování signálu)

Zkrácený výraz pro korelační funkci. Pro spojité signály f(t) a g(t):

\((f \star g)(t) \ \stackrel{\mathrm{def}}{=} \int_{-\infty}^{\infty} f^*(\tau) \cdot g(t+\tau)\,d\tau\)

Pro diskrétní signály fk a gk:

\((f \star g)_k \ \stackrel{\mathrm{def}}{=} \sum_{i=-\infty}^{\infty} f^*_i \ g_{k+i}\)

U komplexních signálů f* představuje komplexně sdružené číslo k f. Velmi se podobá konvoluci. Rozdíl je hlavně v časovém překlopení druhé funkce g. Jako autokorelace se rozumí korelace \((f \star f)\). Lze tak určit tzv. soběpodobnost signálu, tedy zda se např. signál v určitých periodách neopakuje.

Související články