La covarianza mide la relación lineal entre dos variables. Aunque la covarianza es similar a la correlación entre dos variables, difieren de las siguientes maneras:
Los coeficientes de correlación están estandarizados. Por lo tanto, una relación lineal perfecta da como resultado un coeficiente de 1. La correlación mide tanto la fuerza como la dirección de la relación lineal entre dos variables.
Los valores de covarianza no están estandarizados. Por consiguiente, la covarianza puede ir desde infinito negativo hasta infinito positivo. Por lo tanto, el valor de una relación lineal perfecta depende de los datos. Puesto que los datos no están estandarizados, es difícil determinar la fuerza de la relación entre las variables.
Interpretación de la covarianza
Si {\displaystyle s_{xy}>{0}}{\displaystyle s_{xy}>{0}} hay dependencia directa (positiva), es decir, a grandes valores de x corresponden grandes valores de y.
Si {\displaystyle s_{xy}={0}}{\displaystyle s_{xy}={0}} Una covarianza 0 se interpreta como la no existencia de una relación lineal entre las dos variables estudiadas.
Si {\displaystyle s_{xy}<{0}}{\displaystyle s_{xy}<{0}} hay dependencia inversa o negativa, es decir, a grandes valores de x corresponden pequeños valores de y.
Iguales interpretaciones se aplican al parámetro {\displaystyle \sigma (x,y)}{\displaystyle \sigma (x,y)}
Propiedades
Si X, Y, W, y V son variables aleatorias y a, b, c, d son constantes ("constante" en este contexto significa no aleatorio), se cumple que:
{\displaystyle \operatorname {Cov} (X,a)=0\,}{\displaystyle \operatorname {Cov} (X,a)=0\,}
{\displaystyle \operatorname {Cov} (X,X)=\operatorname {Var} (X)\,}{\displaystyle \operatorname {Cov} (X,X)=\operatorname {Var} (X)\,}, la varianza de {\displaystyle X}X
{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {Cov} (Y,X)\,}{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {Cov} (Y,X)\,}
{\displaystyle \operatorname {Cov} (aX,bY)=ab\,\operatorname {Cov} (X,Y)\,}{\displaystyle \operatorname {Cov} (aX,bY)=ab\,\operatorname {Cov} (X,Y)\,}
{\displaystyle \operatorname {Cov} (X+a,Y+b)=\operatorname {Cov} (X,Y)\,}{\displaystyle \operatorname {Cov} (X+a,Y+b)=\operatorname {Cov} (X,Y)\,}
{\displaystyle \operatorname {Cov} (aX+bY,cW+dV)=ac\,\operatorname {Cov} (X,W)+ad\,\operatorname {Cov} (X,V)+bc\,\operatorname {Cov} (Y,W)+bd\,\operatorname {Cov} (Y,V)\,}{\displaystyle \operatorname {Cov} (aX+bY,cW+dV)=ac\,\operatorname {Cov} (X,W)+ad\,\operatorname {Cov} (X,V)+bc\,\operatorname {Cov} (Y,W)+bd\,\operatorname {Cov} (Y,V)\,}
{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} (XY)-\operatorname {E} (X)\operatorname {E} (Y)}{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} (XY)-\operatorname {E} (X)\operatorname {E} (Y)}, fórmula que suele emplearse en la práctica para calcular la covarianza.
Estas propiedades se deducen de manera casi directa de la definición de la covarianza. En otras palabras la covarianza trata de explicar qué tan relacionadas se encuentran dos variables entre sí, qué tanto se mueve una cuando la otra se mueve otro tanto. Ejemplo, si la variable X se mueve 1, supongamos que la variable Y se mueve 2, entonces podemos decir que la variable Y se mueve positivamente el doble de lo que se movería la variable X.