af Noe Gonzalez 1 år siden
52
Mere som dette
La suposición de normalidad puede verificarse mediante la construcción de una gráfica de probabilidad normal de los residuos. Para esto, los residuos se agrupan en una tabla de distribución de frecuencias, se calcula la frecuencia relativa acumulada para cada valor y se grafican en una hoja de papel de probabilidad normal. Si la suposición es válida los puntos tenderán a agruparse sobre una línea recta que pasa por el punto medio.
La suposición de independencia puede verificarse graficando los residuos contra el tiempo u orden de la serie en que se ejecutó el experimento. Un patrón en esta gráfica, tal como la secuencia de residuos positivos y negativos, puede indicar que las observaciones no son independientes.
También es útil graficar los residuos contra los valores ajustados ; la variabilidad entre los residuos no debe depender de ningún modo del valor de . Cuando aparece un patrón en estas gráficas, esto suele indicar la necesidad de una transformación, esto es, analizar los datos en una métrica diferente.
La prueba de Bartlett se basa en una estadística cuya distribución muestral proporciona valores críticos exactos cuando los tamaños muestrales son iguales. Estos valores valores críticos para tamaños iguales de muestras también se pueden utilizar para obtener aproximaciones altamente precisas a los valores críticos para tamaños diferentes de las muestras.
La mínima diferencia significativa de Fisher (MDS), se define como la diferencia mínima que podría existir entre dos medias muestrales significativamente diferentes. Cuando el análisis de varianza indica la existencia de una diferencia significativa, deseamos conocer cual de los pares de medias causa la diferencia y si los tamaños de muestra de tratamientos (n) son iguales la mínima diferencia significativa nos ayuda a localizar esta fuente.
Contribuyeron al desarrollo de esta prueba Student, Newman y Keuls la cual utiliza amplitudes múltiples para probar; sin embargo, esto lo hace un procedimiento guiado por los resultados, lo cual hace difícil la descripción de la tasa del error.
La prueba de la Diferencia Significativa Honesta (DSH) de Tukey, al igual que la MDS solo se puede usar después de que se ha rechazado la hipótesis nula en el análisis de varianza y cuando los tamaños de muestra son todos iguales; el procedimiento es el mismo, pero a diferencia de la MDS emplea el estadístico q en lugar del estadístico t . Este valor q se obtiene de la tabla T.6 del apéndice, para el nivel de significancia , el número de tratamientos k y los grados de libertad del error f,
Estimación de los Parámetros del Modelo: Un criterio de estimación apropiado es estimar y tales que la suma de los cuadrados de los errores o desviaciones sea mínima. Esta estimación de parámetros recibe el nombre de método de mínimos cuadrados. Al estimar y por el método de mínimos cuadrados, la suposición de normalidad en los errores no es necesaria.
En algunos experimentos de un solo factor el número de observaciones tomadas bajo cada tratamiento puede ser diferente. Decimos en ese caso que el diseño está desbalanceado. El análisis de varianza descrito con anterioridad sigue siendo válido, pero deben efectuarse ligeras modificaciones en la obtención de las sumas de cuadrados. Sean las observaciones tomadas bajo el tratamiento i ( ), y el número total de observaciones.
Primera, los a tratamientos podrían haberse seleccionado específicamente por el experimentador. Esto recibe el nombre de modelo de efectos fijos. En esta situación deseamos probar la hipótesis en torno a la y las conclusiones sólo se aplicarán a los niveles del factor considerados en el análisis.
Segunda, los a tratamientos podrían ser una muestra aleatoria de una gran población de tratamientos. En este caso nos gustaría extender las conclusiones a todos los tratamientos en la población, sin que importe que se hayan considerado o no explícitamente en el análisis. Aquí las son variables aleatorias, y el conocimiento acerca de las que se investigan en particular es relativamente inútil.
Repetibilidad. Esto significa que las pruebas se puedan repetir bajo las mismas condiciones en más de una ocasión. La repetibilidad es importante, al menos por dos razones: • Permite cuantificar el error aleatorio inherente al proceso • Permite una mejor estimación de los parámetros
Aleatoriedad. Esto significa que, tanto el material asignado a una prueba en particular como el orden en que se realizan las pruebas, se seleccionan al azar o de manera aleatoria. La aleatoriedad es importante al menos por dos razones: • Confunde el efecto de factores no controlables • Valida las pruebas estadísticas al hacer que los errores experimentales sean estadísticamente independientes.