Categorías: Todo - correlación - densidad - varianza - covarianza

por Julia Norali Rios Rodriguez hace 2 años

212

ESPERANZA MATEMÁTICA Y ESTADÍSTICOS DE ORDEN

La covarianza y la varianza condicional son conceptos fundamentales en la teoría de probabilidades y estadísticas. La covarianza mide la relación entre dos variables aleatorias, mientras que la varianza condicional se refiere a la variabilidad de una variable dada otra.

ESPERANZA MATEMÁTICA
Y ESTADÍSTICOS DE ORDEN

ESPERANZA MATEMÁTICA Y ESTADÍSTICOS DE ORDEN

Covarianza

Para alguna variable aleatoria X y Y,:

𝐶𝑜𝑣(𝑋,𝑌)=𝐸𝑋𝑌−𝐸𝑋 𝐸𝑌

Si X y Y son variables aleatorias con medias 𝜇𝑋 y 𝜇𝑌 respectivamente, la covarianza de X y Y es el número definido por :

𝐶𝑜𝑣(𝑋,𝑌)=𝐸[(𝑋−𝜇𝑋 )(𝑌−𝜇𝑌 )]

Coeficiente de correlación

Si X y Y son independientes: 𝜌(𝑋, 𝑌) =0

-1 ≤ 𝜌(𝑋, 𝑌) ≤ 1

|𝜌(𝑋, 𝑌) | =1 cumpliendo restricciones.

Si X y Y son variables aleatorias, el coeficiente de correlación de X y Y es el número definido por

𝜌𝑋𝑌=𝐶𝑜𝑟𝑟(𝑋, 𝑌)=𝐶𝑜𝑣(𝑋,𝑌)/√(𝑉𝑎𝑟(𝑋)𝑉𝑎𝑟(𝑌) ) =(𝐶𝑜𝑣(𝑋, 𝑌))/(𝜎𝑋 𝜎𝑌 ) donde |𝜌_𝑋𝑌 |≤1 o bien, 〖−1≤𝜌〗_𝑋𝑌≤1

Función generatriz de momentos

Si X es una variable aleatoria con función de distribución acumulada 𝐹_𝑋. La función generatriz de momentos (fgm) de X, denotada por 𝑀_𝑋 (𝑡) , es:

𝑀𝑋 (𝑡)=𝐸𝑒^𝑡𝑋,

TEOREMA
Si X y Y son variables aleatorias independientes con funciones generatriz de momentos 𝑀_𝑋 (𝑡) y 𝑀_𝑌 (𝑡). Entonces la función generatriz de momentos la variable aleatoria 𝑍=𝑋+𝑌 esta dada por:

𝑀𝑍 (𝑡)=𝑀_𝑋 (𝑡) 𝑀𝑌 (𝑡)

1. La n-derivada de la función generatriz de momentos 𝑀(𝑡) es 𝑀_𝑋^𝑛 (𝑡)=𝑑/(𝑑𝑡^𝑛 ) 𝐸(𝑒^𝑡𝑋 )=𝐸(𝑑/(𝑑𝑡^𝑛 ) 𝑒^𝑡𝑋 )=𝐸(𝑋^𝑛 𝑒^𝑡𝑋 )
2. La n-derivada de la función generatriz de momentos evaluada en 𝑡=0 es: 𝑀^𝑛 (0)=𝐸(𝑋^𝑛 )

Estadísticos de orden

TEOREMA 2
Sea 𝑋((1)),𝑋((2)),…,𝑋((𝑛)) los estadísticos de orden de una muestra aleatoria 𝑋_1,𝑋_2,…, 𝑋_𝑛 de una población continua con fda 𝐹_𝑋 (𝑥) y densidad 𝑓_𝑋 (𝑥). Entonces, la función de densidad de 𝑋_((𝑗)) es:

𝑓(𝑋((𝑗) ) ) (𝑥)=𝑛!/(𝑗−1)!(𝑛−𝑗)! 𝑓𝑋 (𝑥) [𝐹𝑋 (𝑥)]^(𝑗−1) [1−𝐹𝑋 (𝑥)]^(𝑛−𝑗)

TEOREMA 1
𝑃_𝑖 es una probabilidad acumulada, entonces: Sea 𝑋((1)),𝑋((2)),…,𝑋((𝑛)) los estadísticos de orden de la muestra. Entonces:

𝑃(𝑋_((𝑗) )≤𝑥_𝑖 )=∑_(𝑘=𝑗)^𝑛〖((𝑛𝑘)) 𝑃𝑖^𝑘 (1−𝑃𝑖 )^(𝑛−𝑘) 〗

Los estadísticos de orden son variables aleatorias que satisfacen que: 𝑋((1))≤𝑋((2) )≤…≤𝑋_((𝑛) )
De una muestra aleatoria 𝑋1, 𝑋2, …, 𝑋𝑛 son los valores muestrales colocados en orden ascendente y se denotan por: 𝑋((1)),𝑋((2)),…,𝑋((𝑛))

Esperanza matemática

TEOREMA 2.2
Sean X y Y variables aleatorias independientes y sean g(x) y h(y) funciones sólo de X y Y. Entonces:

𝑬[𝒈(𝒙)𝒉(𝒚)]=𝑬[𝒈(𝒙)] 𝑬[𝒉(𝒚)]

𝑬[𝒈𝟏 (𝒙,𝒚)+ 𝒈𝟐 (𝒙,𝒚)+…+𝒈𝒌 (𝒙,𝒚)] =〖𝑬𝒈〗𝟏 (𝒙,𝒚)+𝑬𝒈𝟐 (𝒙,𝒚)+…+〖𝑬𝒈〗𝒌 (𝒙,𝒚)
𝑬[𝒄𝒈(𝒙,𝒚)]=𝒄[𝑬𝒈(𝒙,𝒚)]
𝑬(𝒄)= 𝒄
Sea 𝑔(𝑥,𝑦) una función real definida para toda 𝑥 y 𝑦. Su valor esperado dado por:
Caso Continuo

Eg(x,y) = ∫∫〖𝑔(𝑥,𝑦)𝑓(𝑥,𝑦)𝑑𝑦𝑑𝑥,

Eg(x,y) = ∑_𝑥 ∑_𝑦 𝑔(𝑥,𝑦)𝑓(𝑥,𝑦)

Esperanza condicional

Sea g(x) una función de X, entonces la esperanza condicional de g(x) dado Y=y denotada por 𝐸[𝑔(𝑥)│𝑦] esta dado por:

Continuo

𝐸[𝑔(𝑥)|𝑦]=∫𝑥𝑔(𝑥)𝑓(𝑥|𝑦)𝑑𝑥

Caso Discreto

𝐸[𝑔(𝑥)|𝑦]= ∑_𝑥 𝑔(𝑥)𝑓(𝑥|𝑦)

Varianza

PROPIEDADES
Var[𝒈𝟏 (𝒙,𝒚)+ 𝒈𝟐 (𝒙,𝒚)+…+𝒈𝒌 (𝒙,𝒚)]≠ 〖𝑽𝒂𝒓𝒈〗𝟏 (𝒙,𝒚)+𝑽𝒂𝒓𝒈𝟐 (𝒙,𝒚)+…+〖𝑽𝒂𝒓𝒈𝒌 (𝒙,𝒚)
𝑽𝒂𝒓[𝒈(𝒙, 𝒚) + 𝒄]=𝑽𝒂𝒓𝒈(𝒙, 𝒚)
Var[𝒄𝒈(𝒙,𝒚)]=𝒄^𝟐 𝑽𝒂𝒓[𝒈(𝒙,𝒚)]
Var(𝒄)= 𝟎
Sea 𝑔(𝑥,𝑦) una función real definida para toda 𝑥 y 𝑦.

𝑉𝑎𝑟(𝑔(𝑥,𝑦))=𝐸(𝑔(𝑥,𝑦))^2−[𝐸𝑔(𝑥,𝑦)]^2

Varianza condicional

DEFINICIÓN
Sea X y Y variables aleatorias, la varianza condicional de Y dado X=x denotada por Var(y|x) es:

𝑉𝑎𝑟(𝑦│𝑥)=𝐸(𝑦^2│𝑥)−[𝐸(𝑦│𝑥)]^2