类别 全部 - correlación - variables - predicción - regresión

作者:Bella Villalobos 4 年以前

390

MEDIDAS ESTADÍSTICAS BIVARIANTES DE REGRESIÓN.

El análisis estadístico bivariante se enfoca en la relación entre dos características de una población, utilizando técnicas adecuadas según la naturaleza de las variables. La regresión múltiple, que emplea varias variables independientes para evaluar una variable dependiente, es una herramienta común en estos estudios.

MEDIDAS ESTADÍSTICAS BIVARIANTES DE REGRESIÓN.

MEDIDAS ESTADÍSTICAS BIVARIANTES DE REGRESIÓN.

Las técnicas estadísticas bivariantes permiten el análisis conjunto de dos características de los individuos de una población con el propósito de detectar posibles relaciones entre ellas. La naturaleza (nominal, ordinal o numérica) de las características objeto de estudio determinará las herramientas más adecuadas para su análisis

Regresión múltiple: Cuando se emplea más de una variable independiente para evaluar una variable dependiente.
Nomenclatura modificada Un marco de notación modificado y más formal es valioso para comentar el análisis de regresión múltiple. Considere el modelo de regresión general con tres variables de predicción. La ecuación modificada: Y = α + β1 X1 + β3X3 + ∊ a cual es un estado simplificado de la más elaborada y precisa ecuación.

Supuesto de multicolinealidad: Condición existente en un análisis de regresión múltiple, que consiste en que las variables de predicción no son independientes unas de otras, como se requiere, sino que están correlacionadas.

Coeficientes de regresión parcial: Coeficientes de regresión parcial es cuando existe multicolinealidad, Simplemente no resulta válida la interpretación “normal” de esos coeficientes, como “el cambio promedio de la variable de criterio relacionado con el cambio unitario de la variable de predicción apropiada cuando se mantienen constantes las demás variables de predicción“. La ecuación todavía sería útil para fines de predicción, en el supuesto de que las condiciones sean estables. Empero, no deben usarse los coeficientes de regresión parcial como base para la toma de decisiones mercadológicas estratégicas cuando es significativa la multicolinealidad

Coeficientes de correlación múltiple y de determinación múltiple Es el análisis de determinación múltiple, la proporción de variación en la variable de criterio que se explica con la covariación de las variables predictivas.

Coeficientes de correlación parcial: Cantidad que resulta del análisis de regresión múltiple e indica la proporción de variación de la variable de criterio que no se explica con una o más variables previas y sí con la inclusión de una nueva variable a la ecuación de regresión.

Variables binarias: Una a la que se asigna uno de dos valores, 0 o 1, y se usa para representar en forma numérica los atributos o características que no son esencialmente cuantitativos.

Trasformaciones de variables: Es una transformación de variable es simplemente un cambio en la escala con que se expresa una variable dada.

Regresión lineal simple. La regresión examina la relación entre dos variables restringiendo una de ellas respecto a la otra, con el objeto de estudiar las variaciones de la primera cuando la otra permanece constante. La regresión es un método que se emplea para pronosticar o predecir el valor de una variable en función de los valores dados de la otra (o de las otras, cuando se trabaja más de dos variables). Se trata pues de una dependencia funcional entre las variables. Cuando se trata de dos variables, una (la X) será la variable independiente mientras que la otra (la Y) será la variable dependiente. Se habla así de una regresión de Y sobre (o en función de) X.
Hay dos posibles interpretaciones: linealidad en las variables y linealidad en los parámetros.

Una función y = f(x) se dice que es lineal en X si la variable X aparece con potencia unitaria (por tanto, se excluyen términos como x2, x3, 1/x, √x, por ejemplo) y no está multiplicada ni dividida por otra variable. Por ejemplo, yj = a + bxi + cxi2 no es una función lineal en las variables puesto que la variable X aparece elevada al cuadrado

Se dice que una función es lineal en los parámetros si éstos aparecen con frecuencia unitaria y no están multiplicados ni divididos por cualquier otro parámetro. A modo de ejemplo, yj = a + √bxi no es una función lineal en los parámetros. Sin embargo, yj = a + bxi + cxi2 sí lo es.

De las dos interpretaciones de linealidad, la linealidad en los parámetros es la más relevante en el contexto de la teoría de la regresión y de la correlación. Sin embargo, en lo que sigue, se exigirá tanto la linealidad en los parámetros como en las variables para que la regresión sea calificada de linea

COEFICIENTE DE DETERMINACIÓN LINEAL Una vez elegida la función rectilínea para representar la relación de dependencia de Y sobre X y estimados sus parámetros a y b, a continuación se procede al cómputo del coeficiente de determinación lineal con objeto de medir el grado de dependencia de Y sobre X bajo la función de regresión lineal estimada.