Estadística no paramétrica
De Wikipedia, la enciclopedia libre
La Estadística no paramétrica es una rama de la Estadística que estudia las pruebas y modelos estadísticos cuya distribución subyacente no se ajusta a los llamados criterios paramétricos. Su distribución no puede ser definida a priori, pues son los datos observados los que la determinan. La utilización de estos métodos se hace recomendable cuando no se puede asumir que los datos se ajusten a una distribución normal o cuando el nivel de medida empleado no sea, como mínimo, de intervalo. Las principales pruebas no paramétricas son las siguientes:
- Prueba de chi-cuadrado
- Prueba binomial
- Prueba de Anderson-Darling
- Prueba de Cochran
- Prueba de Cohen kappa
- Prueba de Fisher
- Prueba de Friedman
- Prueba de Kendall
- Prueba de Kolmogorov-Smirnov
- Prueba de Kruskal-Wallis
- Prueba de Kuiper
- Prueba de Mann-Whitney o prueba de Wilcoxon
- Prueba de McNemar
- Prueba de la mediana
- Prueba de Siegel-Tukey
- Coeficiente de correlación de Spearman
- Tablas de contingencia
- Prueba de Wald-Wolfowitz
- Prueba de los signos de Wilcoxon
[editar] Véase también
- estadística paramétrica
[editar] Fuente
Wikipedia. Traducción del inglés.
El contenido de esta página es un esbozo sobre matemática. Ampliándolo ayudarás a mejorar Wikipedia. Puedes ayudarte con las wikipedias en otras lenguas. |