Covarianza

En probabilidad y estadística, la covarianza es un valor que indica el grado de variación conjunta de dos variables aleatorias respecto a sus medias. Es el dato básico para determinar si existe una dependencia entre ambas variables y además es el dato necesario para estimar otros parámetros básicos, como el coeficiente de correlación lineal o la recta de regresión.

Interpretación

Cuando los valores altos de una de las variables suelen mayoritariamente corresponderse con los valores altos de la otra, y lo mismo se verifica para los pequeños valores de una con los de la otra, se corrobora que tienden a mostrar comportamiento similar lo que se refleja en un valor positivo de la covarianza[1]
Por el contrario, cuando los valores altos de una variable suelen corresponder mayoritariamente a los menores valores de la otra, expresando un comportamiento opuesto, la covarianza es negativa.

El signo de la covarianza, por lo tanto, expresa la tendencia en la relación lineal entre las variables.
La magnitud requiere un esfuerzo adicional de interpretación:
La versión normalizada de la covarianza, el coeficiente de correlación indica la magnitud de la especificidad de la relación lineal.

Se debe distinguir entre:
(1) la covarianza de dos variables aleatorias, parámetro estadístico de una población considerado una propiedad de la distribución conjunta y
(2) la covarianza muestral que se emplea como un valor estadísticamente estimado es una de las principales causas o motivos de la covarianza.

Definición

La covarianza entre dos variables aleatorias X {\displaystyle X} y Y {\displaystyle Y} se define como

Cov ( X , Y ) = E [ ( X E [ X ] ) ( Y E [ Y ] ) ] , {\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} {{\big [}(X-\operatorname {E} [X])(Y-\operatorname {E} [Y]){\big ]}},}

siempre que E [ X ] {\displaystyle \operatorname {E} [X]} , E [ Y ] {\displaystyle \operatorname {E} [Y]} y E [ X Y ] < {\displaystyle \operatorname {E} [XY]<\infty } , donde E [ X ] {\displaystyle \operatorname {E} [X]} , E [ Y ] {\displaystyle \operatorname {E} [Y]} y E [ X Y ] {\displaystyle \operatorname {E} [XY]} denota los valores esperados de las variables aleatorias X {\displaystyle X} , Y {\displaystyle Y} y X Y {\displaystyle XY} respectivamente. Como la esperanza es un operador lineal entonces la expresión anterior se puede escribir de otra forma

Cov ( X , Y ) = E [ ( X E [ X ] ) ( Y E [ Y ] ) ] = E [ X Y X E [ Y ] E [ X ] Y + E [ X ] E [ Y ] ] = E [ X Y ] E [ X ] E [ Y ] E [ X ] E [ Y ] + E [ X ] E [ Y ] = E [ X Y ] E [ X ] E [ Y ] . {\displaystyle {\begin{aligned}\operatorname {Cov} (X,Y)&=\operatorname {E} \left[\left(X-\operatorname {E} \left[X\right]\right)\left(Y-\operatorname {E} \left[Y\right]\right)\right]\\&=\operatorname {E} \left[XY-X\operatorname {E} \left[Y\right]-\operatorname {E} \left[X\right]Y+\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]\right]\\&=\operatorname {E} \left[XY\right]-\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]-\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]+\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]\\&=\operatorname {E} \left[XY\right]-\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right].\end{aligned}}}

Variables Aleatorias Discretas

Si las variables aleatorias X {\displaystyle X} y Y {\displaystyle Y} pueden tomar los valores x i {\displaystyle x_{i}} y y i {\displaystyle y_{i}} para i = 1 , 2 , , n {\displaystyle i=1,2,\dots ,n} con probabilidad P [ X = x i ] = 1 / n {\displaystyle \operatorname {P} [X=x_{i}]=1/n} y P [ Y = y i ] = 1 / n {\displaystyle \operatorname {P} [Y=y_{i}]=1/n} respectivamente entonces la covarianza puede ser expresada en términos de E [ X ] {\displaystyle \operatorname {E} [X]} y E [ Y ] {\displaystyle \operatorname {E} [Y]} como

Cov ( X , Y ) = 1 n i = 1 n ( x i E [ X ] ) ( y i E [ Y ] ) {\displaystyle \operatorname {Cov} (X,Y)={\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}-\operatorname {E} [X]\right)\left(y_{i}-\operatorname {E} [Y]\right)}

o expresadas como

Cov ( X , Y ) = 1 2 n 2 i = 2 n j = 1 n ( x i x j ) ( y i y j ) {\displaystyle \operatorname {Cov} (X,Y)={\frac {1}{2n^{2}}}\sum _{i=2}^{n}\sum _{j=1}^{n}\left(x_{i}-x_{j}\right)\left(y_{i}-y_{j}\right)}

Caso Multivariado

Si X {\displaystyle {\mathbf {X}}} es un vector aleatorio de dimensión n {\displaystyle n} , es decir, X = ( X 1 , , X n ) t {\displaystyle {\mathbf {X}}=(X_{1},\ldots ,X_{n})^{t}} donde X i {\displaystyle X_{i}} para i = 1 , 2 , , n {\displaystyle i=1,2,\dots ,n} son variables aleatorias, la matriz de covarianza, denotada por Σ {\displaystyle \Sigma } , está dada por

Σ = ( Cov ( X 1 , X 1 ) Cov ( X 1 , X 2 ) Cov ( X 1 , X n ) Cov ( X 2 , X 1 ) Cov ( X 2 , X 2 ) Cov ( X 2 , X n ) Cov ( X n , X 1 ) Cov ( X n , X 2 ) Cov ( X n , X n ) ) {\displaystyle \Sigma ={\begin{pmatrix}\operatorname {Cov} (X_{1},X_{1})&\operatorname {Cov} (X_{1},X_{2})&\cdots &\operatorname {Cov} (X_{1},X_{n})\\\operatorname {Cov} (X_{2},X_{1})&\operatorname {Cov} (X_{2},X_{2})&\cdots &\operatorname {Cov} (X_{2},X_{n})\\\vdots &\vdots &\ddots &\vdots \\\operatorname {Cov} (X_{n},X_{1})&\operatorname {Cov} (X_{n},X_{2})&\cdots &\operatorname {Cov} (X_{n},X_{n})\end{pmatrix}}}

es decir, la ( i , j ) {\displaystyle (i,j)} -ésima entrada de Σ {\displaystyle \Sigma } corresponde a la covarianza entre X i {\displaystyle X_{i}} y X j {\displaystyle X_{j}} que puede ser representada como

Σ i j = Cov ( X i , X j ) {\displaystyle \Sigma _{ij}=\operatorname {Cov} (X_{i},X_{j})}

en particular, cuando i = j {\displaystyle i=j} , entonces

Σ i i = Cov ( X i , X i ) = Var ( X i ) {\displaystyle \Sigma _{ii}=\operatorname {Cov} (X_{i},X_{i})=\operatorname {Var} (X_{i})}

por lo que la matriz Σ {\displaystyle \Sigma } puede ser escrita como

Σ = ( Var ( X 1 ) Cov ( X 1 , X 2 ) Cov ( X 1 , X n ) Cov ( X 2 , X 1 ) Var ( X 2 ) Cov ( X 2 , X n ) Cov ( X n , X 1 ) Cov ( X n , X 2 ) Var ( X n ) ) {\displaystyle \Sigma ={\begin{pmatrix}\operatorname {Var} (X_{1})&\operatorname {Cov} (X_{1},X_{2})&\cdots &\operatorname {Cov} (X_{1},X_{n})\\\operatorname {Cov} (X_{2},X_{1})&\operatorname {Var} (X_{2})&\cdots &\operatorname {Cov} (X_{2},X_{n})\\\vdots &\vdots &\ddots &\vdots \\\operatorname {Cov} (X_{n},X_{1})&\operatorname {Cov} (X_{n},X_{2})&\cdots &\operatorname {Var} (X_{n})\end{pmatrix}}}

Propiedades

Covarianza consigo misma

La varianza es un caso particular de la covarianza cuando dos variables aleatorias son idénticas

Cov ( X , X ) = Var ( X ) σ X 2 {\displaystyle \operatorname {Cov} (X,X)=\operatorname {Var} (X)\equiv \sigma _{X}^{2}}

Covarianza de combinaciones lineales

Sean X {\displaystyle X} , Y {\displaystyle Y} , W {\displaystyle W} y V {\displaystyle V} variables aleatorias y a , b , c , d R {\displaystyle a,b,c,d\in \mathbb {R} } entonces

  1. Cov ( X , a ) = 0 {\displaystyle \operatorname {Cov} (X,a)=0\,}
  2. Cov ( X , X ) = Var ( X ) {\displaystyle \operatorname {Cov} (X,X)=\operatorname {Var} (X)} , donde Var ( X ) {\displaystyle \operatorname {Var} (X)} denota la varianza de X {\displaystyle X} .
  3. Cov ( X , Y ) = Cov ( Y , X ) {\displaystyle \operatorname {Cov} (X,Y)=\operatorname {Cov} (Y,X)} llamada propiedad de simetría.
  4. Cov ( a X , b Y ) = a b Cov ( X , Y ) {\displaystyle \operatorname {Cov} (aX,bY)=ab\operatorname {Cov} (X,Y)}
  5. Cov ( X + a , Y + b ) = Cov ( X , Y ) {\displaystyle \operatorname {Cov} (X+a,Y+b)=\operatorname {Cov} (X,Y)}
  6. Cov ( a X + b Y , c W + d V ) = a c Cov ( X , W ) + a d Cov ( X , V ) + b c Cov ( Y , W ) + b d Cov ( Y , V ) {\displaystyle \operatorname {Cov} (aX+bY,cW+dV)=ac\operatorname {Cov} (X,W)+ad\operatorname {Cov} (X,V)+bc\operatorname {Cov} (Y,W)+bd\operatorname {Cov} (Y,V)}
  7. Cov ( X , Y ) = E [ X Y ] E [ X ] E [ Y ] {\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} [XY]-\operatorname {E} [X]\operatorname {E} [Y]} , fórmula que suele emplearse en la práctica para calcular la covarianza.

Estas propiedades se deducen de manera casi directa de la definición de la covarianza.

Para una secuencia X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\dots ,X_{n}} de variables aleatorias y para valores a 1 , a 2 , , a n R {\displaystyle a_{1},a_{2},\dots ,a_{n}\in \mathbb {R} } se tiene

Var ( i = 1 n a i X i ) = i = 1 n a i 2 σ X i 2 + 2 i , j : i < j a i a j Cov ( X i , X j ) = i < j a i a j Cov ( X i , X j ) {\displaystyle {\begin{aligned}\operatorname {Var} \left(\sum _{i=1}^{n}a_{i}X_{i}\right)&=\sum _{i=1}^{n}a_{i}^{2}\sigma _{X_{i}}^{2}+2\sum _{i,j:i<j}a_{i}a_{j}\operatorname {Cov} (X_{i},X_{j})\\&=\sum _{i<j}a_{i}a_{j}\operatorname {Cov} (X_{i},X_{j})\end{aligned}}}

No correlación e Independencia

A las variables aleatorias cuya covarianza es cero se dicen que son no correlacionadas.

Si X {\displaystyle X} e Y {\displaystyle Y} son variables aleatorias independientes entonces su covarianza es cero, esto es

Cov ( X , Y ) = 0 {\displaystyle {\text{Cov}}(X,Y)=0}

esto ocurre por la propiedad de independencia

E [ X Y ] = E [ X ] E [ Y ] {\displaystyle \operatorname {E} [XY]=\operatorname {E} [X]\operatorname {E} [Y]}

entonces reemplazando en la fórmula de la covarianza se obtiene

Cov ( X , Y ) = E [ X Y ] E [ X ] E [ Y ] = E [ X ] E [ Y ] E [ X ] E [ Y ] = 0 {\displaystyle {\begin{aligned}\operatorname {Cov} (X,Y)&=\operatorname {E} [XY]-\operatorname {E} [X]\operatorname {E} [Y]\\&=\operatorname {E} [X]\operatorname {E} [Y]-\operatorname {E} [X]\operatorname {E} [Y]\\&=0\end{aligned}}}

Lo opuesto, sin embargo, generalmente no es cierto: algunos pares de variables aleatorias tienen covarianza cero pese a que no son independientes. Bajo algunas hipótesis adicionales, la covarianza de valor cero implica independencia, como por ejemplo en el caso de la distribución normal multivariante.

Relación con el producto escalar

La mayoría de las propiedades de la covarianza se deducen de las del producto escalar:

  1. Bilinealidad: para a , b R {\displaystyle a,b\in \mathbb {R} } y las variables aleatorias X {\displaystyle X} , Y {\displaystyle Y} y U {\displaystyle U} se cumple Cov ( a X + b Y , U ) = a Cov ( X , U ) + b Cov ( Y , U ) {\displaystyle \operatorname {Cov} (aX+bY,U)=a\operatorname {Cov} (X,U)+b\operatorname {Cov} (Y,U)}
  2. Simetría: Cov ( X , Y ) = Cov ( Y , X ) {\displaystyle {\text{Cov}}(X,Y)={\text{Cov}}(Y,X)}
  3. Es un operador positivo definido: Var ( X ) = Cov ( X , X ) 0 {\displaystyle {\text{Var}}(X)={\text{Cov}}(X,X)\geq 0} ; además, si Cov ( X , X ) = 0 {\displaystyle {\text{Cov}}(X,X)=0} entonces X {\displaystyle X} es una variable aleatoria constante.

De hecho, la covarianza es un producto interior sobre el espacio cociente de las variables aleatorias de momentos finitos iguales salvo constante.

Covarianza muestral

Si X {\displaystyle X} y Y {\displaystyle Y} son variables aleatorias que toman los valores x i {\displaystyle x_{i}} y y i {\displaystyle y_{i}} para i = 1 , 2 , , n {\displaystyle i=1,2,\dots ,n} entonces se puede estimar la covarianza entre X {\displaystyle X} y Y {\displaystyle Y} , este estimador denotado por S x y {\displaystyle S_{xy}} se define como

S x y = 1 n 1 i = 1 n ( x i x ¯ ) ( y i y ¯ ) = 1 n 1 [ i = 1 n x i y i n x ¯ y ¯ ] {\displaystyle {\begin{aligned}S_{xy}&={\frac {1}{n-1}}\sum _{i=1}^{n}{(x_{i}-{\overline {x}})(y_{i}-{\overline {y}})}\\&={\frac {1}{n-1}}[\sum _{i=1}^{n}{x_{i}y_{i}}-n{\bar {x}}{\bar {y}}]\end{aligned}}}

donde

x ¯ = i = 1 n x i n y y ¯ = i = 1 n y i n {\displaystyle {\overline {x}}=\sum _{i=1}^{n}{\frac {x_{i}}{n}}\qquad {\text{y}}\qquad {\overline {y}}=\sum _{i=1}^{n}{\frac {y_{i}}{n}}}

denotan la media muestral.

El estimador S x y {\displaystyle S_{xy}} tiene la propiedad de que es un estimador insesgado.

Interpretación de la covarianza

  • Si S x y > 0 {\displaystyle S_{xy}>{0}} hay dependencia directa (positiva), es decir, a grandes valores de X {\displaystyle X} corresponden grandes valores de Y {\displaystyle Y} .
  • Si S x y = 0 {\displaystyle S_{xy}={0}} se interpreta como la no existencia de una relación lineal entre las dos variables.
  • Si S x y < 0 {\displaystyle S_{xy}<{0}} hay dependencia inversa o negativa, es decir, a grandes valores de X {\displaystyle X} corresponden pequeños valores de Y {\displaystyle Y} .

Véase también

Referencias

  1. http://mathworld.wolfram.com/Covariance.html

Enlaces externos

  • Resolver covarianza y varianza con fórmula en línea
  • Simulación de la covarianza de una variable bidimensional continua [1] y discreta [2] con R (lenguaje de programación)
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q201984
  • Identificadores
  • GND: 4140520-1
  • Diccionarios y enciclopedias
  • Britannica: url
  • Wd Datos: Q201984