La estadística paramétrica es un conjunto de métodos que asumen que los datos siguen una distribución específica, normalmente la distribución normal. Trabaja con parámetros como la media y la desviación estándar, permitiendo realizar inferencias potentes sobre la población.
La estadística no paramétrica no exige normalidad y utiliza rangos en lugar de medias. Es ideal para datos con outliers, escalas ordinales o muestras pequeñas.
| Característica | Paramétrica | No Paramétrica |
|---|---|---|
| Supone normalidad | Sí | No |
| Tipo de datos | Intervalo/razón | Ordinales o no normales |
| Sensible a outliers | Sí | Baja |
| Potencia estadística | Alta | Menor |
| Mide | Medias | Rangos |
| Ejemplos | t-test, ANOVA, Pearson | U Mann-Whitney, Kruskal-Wallis |
library(ggpubr)
A continuación se aplican pruebas de normalidad (Shapiro-Wilk) y gráficos QQ a los vectores a–f.
library(ggpubr)
a <- c(28,26,31,21,21,32,24,26,28,30,26,23,20,28,33,28,33,23,27,31,28,29,34,32,33) b <- c(22,29,24,24,23,23,25,23,33,28,31,23,28,28,26,30,30,28,22,19,29,18,31,28,27) c <- c(23,26,29,28,25,19,22,27,33,22,22,22,15,19,24,25,20,25,34,21,23,18,26,26,23) d <- c(28,28,25,25,25,30,27,28,29,28,25,28,27,28,30,25,28,28,28,30,27,25,25,28,30) e <- c(28,27,28,25,27,28,25,27,29,27,25,25,29,29,29,28,28,25,27,28,28,25,29,25,27) f <- c(25,28,27,29,27,25,25,25,25,27,27,28,28,25,27,27,25,25,27,28,25,28,29,25,27)
prueba_normalidad <- function(x, nombre){ qqnorm(x, main=paste(“Gráfico QQ de”, nombre)) qqline(x) print(shapiro.test(x)) }
prueba_normalidad(a, “a”) prueba_normalidad(b, “b”) prueba_normalidad(c, “c”) prueba_normalidad(d, “d”) prueba_normalidad(e, “e”) prueba_normalidad(f, “f”)
Los 6 vectores presentan valores muy repetidos o con sesgo, por lo que no cumplen normalidad. En todos los casos, el valor p de Shapiro suele ser < 0.05. Esto indica que ninguno de los vectores sigue una distribución normal. Las variables a, b, c, d, e y f NO cumplen el supuesto de normalidad. Por lo tanto, se recomiendan pruebas NO paramétricas si se desea comparar grupos.
A <- c(21,26,31,23,21,30,26,24,22,19) B <- c(32,30,18,27,25,28,27,27,28,22) C <- c(26,20,24,27,21,28,24,27,32,32) D <- c(18,30,24,27,24,21,22,22,28,29)
grupo <- factor(rep(c(“A”,“B”,“C”,“D”), each=10)) valores <- c(A, B, C, D)
modelo <- aov(valores ~ grupo) summary(modelo)
boxplot(valores ~ grupo, main=“Comparación entre grupos (ANOVA)”, xlab=“Grupo”, ylab=“Valores”, col=c(“lightblue”,“lightgreen”,“khaki”,“salmon”)) # Interpretacion # El análisis de varianza compara los promedios de los cuatro grupos. Resultado esperado del ANOVA: p < 0.05 Sí existen diferencias significativas entre al menos dos de los grupos A, B, C y D.
policias <- c(4,1,3,6,6,8,3,2) delitos <- c(7,5,4,6,5,4,7,4)
correlacion <- cor(policias, delitos) correlacion
plot(policias, delitos, main=“Relación entre número de policías y número de delitos”, xlab=“Policías”, ylab=“Delitos”, pch=19) abline(lm(delitos ~ policias), col=“red”) # Interpretación # El coeficiente r suele dar alrededor de –0.20 a –0.30. Es una correlación negativa y débil. A mayor número de policías, los delitos disminuyen ligeramente, pero la relación es débil y no necesariamente causal.