VIOLACION DE LOS SUPUESTOS MCO

REGRESIONES AUXILIARES Puesto que la multicolinealidad surge debido a que uno o mas regresores son combinaciones lineales exactas de los otros regresores, una forma de encontrar cual variable X esta relacionada con otras variables X es efectuar la regresion de cada X sobre las variables X restantes y calcular el R2 correspondiente

COLINEALIDAD Se refiere a la existencia de una sola relación líneal

Si existe colinealidad perfecta entre las X sus coeficientes de regresión son indeterminados y sus errores estandar no estan definidos

MULTICOLINEALIDAD Se refiere a la existencia de mas de una relación lineal exacta

Un R2 Elevado pero pocas razones t significativas, si es alto arriba de 0.8 rechazara la hipotesis de los coeficientes parciales

FACTORES DE TOLERANCIA Y DE INFLACION DE LA VARIANZA, Entre mayor es el FIV, mayor problema o colinealidad tiene la variable X

EXAMEN DE LAS CORRELACIONES PARCIALES Se sugiere que cuando R2 es muy elevada pero las R son comparativamente bajas esto puede sugerir que las X están altamente intercorralacionadas y que por lo menos una de estas variables es superflua

VALORES PROPIOS E INDICE DE CONDICION Si K esta entre 100 y 1000 existe multicolinealidad que va desde moderada hasta fuerte

Si utilizamos MCO en presencia de heteroscedasticidilidad los intervalos de confianza seran innecesariamente grandes y es probable que las pruebas T y F nos den resultados imprecisos.

PRUEBA DE PARK Si beta resulta estadisticamente significativo, esto sugerira que hay heteroscedasticilidad

MCG es MCO sobre las variables transformadas que satisfacen los supuestos estandar de minimos cuadrados

HETEROSCEDASTACIDILIDAD No destruye las propiedades de insesgamiento y consistencia de los estimadores MCO