Diferencia entre revisiones de «Prueba F de Fisher»
m Añadir categoría |
m Deshecha la edición 25756897 de Juan Mayordomo (disc.) |
||
Línea 14: | Línea 14: | ||
[[Categoría:Contraste de hipótesis]] |
[[Categoría:Contraste de hipótesis]] |
||
[[Categoría:Estadística paramétrica]] |
|||
[[de:F-Test]] |
[[de:F-Test]] |
Revisión del 20:38 21 abr 2009
En estadística se denomina prueba F (de Fisher) a cualquier prueba en la que el estadístico utilizado sigue una distribución F si la hipótesis nula es cierta. En estadística aplicada se prueban muchas hipótesis mediante el test F, entre ellas:
- La hipótesis de que las medias de múltiples poblaciones normalmente distribuidas y con la misma desviación estándar son iguales. Esta es, quizás, la más conocida de las hipótesis verificada mediante el test F y el problema más simple del análisis de varianza.
- La hipótesis de que las desviaciones estándar de dos poblaciones normalmente distribuidas son iguales.
En muchos casos, el test F puede resolverse mediante un proceso directo. Se requieren dos modelos de regresión, uno de los cuales restringe uno o más de los coeficientes de regresión conforme a la hipótesis nula. El test entonces se basa en un cociente modificado de la suma de cuadrados de residuos de los dos modelos como sigue:
Dadas n observaciones, donde el modelo 1 tiene k coeficientes no restringidos, y el modelo 0 restringe m coeficientes (típicamente a cero), el test F puede calcularse como
El valor resultante debe entonces compararse con la entrada correspondiente de la tabla de valores críticos.