1. Estadística paramétrica y no paramétrica

Estadística paramétrica

La estadística paramétrica es un conjunto de métodos que asumen que los datos siguen una distribución específica, normalmente la distribución normal. Trabaja con parámetros como la media y la desviación estándar, permitiendo realizar inferencias potentes sobre la población.

¿Para qué sirve?

  • Comparar grupos.
  • Analizar relaciones entre variables.
  • Detectar diferencias reales con mayor potencia estadística.

Características principales

  • Requiere normalidad.
  • Es más potente.
  • Sensible a outliers.
  • Usa parámetros poblacionales.
  • Ejemplos: t de Student, ANOVA, Pearson.

Estadística no paramétrica

La estadística no paramétrica no exige normalidad y utiliza rangos en lugar de medias. Es ideal para datos con outliers, escalas ordinales o muestras pequeñas.

¿Para qué sirve?

  • Analizar datos no normales.
  • Comparar grupos cuando no se cumplen supuestos.
  • Trabajar con variables ordinales.

Características principales

  • No requiere normalidad.
  • Menor potencia.
  • Menos afectada por valores extremos.
  • Ejemplos: Mann-Whitney, Kruskal-Wallis, Wilcoxon, Spearman.

Cuadro comparativo

Característica Paramétrica No Paramétrica
Supone normalidad No
Tipo de datos Intervalo/razón Ordinales o no normales
Sensible a outliers Baja
Potencia estadística Alta Menor
Mide Medias Rangos
Ejemplos t-test, ANOVA, Pearson U Mann-Whitney, Kruskal-Wallis

library(ggpubr)

2. Pruebas de normalidad

A continuación se aplican pruebas de normalidad (Shapiro-Wilk) y gráficos QQ a los vectores a–f.

Cargar librería

library(ggpubr)

Datos

a <- c(28,26,31,21,21,32,24,26,28,30,26,23,20,28,33,28,33,23,27,31,28,29,34,32,33) b <- c(22,29,24,24,23,23,25,23,33,28,31,23,28,28,26,30,30,28,22,19,29,18,31,28,27) c <- c(23,26,29,28,25,19,22,27,33,22,22,22,15,19,24,25,20,25,34,21,23,18,26,26,23) d <- c(28,28,25,25,25,30,27,28,29,28,25,28,27,28,30,25,28,28,28,30,27,25,25,28,30) e <- c(28,27,28,25,27,28,25,27,29,27,25,25,29,29,29,28,28,25,27,28,28,25,29,25,27) f <- c(25,28,27,29,27,25,25,25,25,27,27,28,28,25,27,27,25,25,27,28,25,28,29,25,27)

Función

prueba_normalidad <- function(x, nombre){ qqnorm(x, main=paste(“Gráfico QQ de”, nombre)) qqline(x) print(shapiro.test(x)) }

Ejecutar

prueba_normalidad(a, “a”) prueba_normalidad(b, “b”) prueba_normalidad(c, “c”) prueba_normalidad(d, “d”) prueba_normalidad(e, “e”) prueba_normalidad(f, “f”)

Interpretación

Los 6 vectores presentan valores muy repetidos o con sesgo, por lo que no cumplen normalidad. En todos los casos, el valor p de Shapiro suele ser < 0.05. Esto indica que ninguno de los vectores sigue una distribución normal. Las variables a, b, c, d, e y f NO cumplen el supuesto de normalidad. Por lo tanto, se recomiendan pruebas NO paramétricas si se desea comparar grupos.

3. Pruebas de ANOVA

A <- c(21,26,31,23,21,30,26,24,22,19) B <- c(32,30,18,27,25,28,27,27,28,22) C <- c(26,20,24,27,21,28,24,27,32,32) D <- c(18,30,24,27,24,21,22,22,28,29)

grupo <- factor(rep(c(“A”,“B”,“C”,“D”), each=10)) valores <- c(A, B, C, D)

modelo <- aov(valores ~ grupo) summary(modelo)

boxplot(valores ~ grupo, main=“Comparación entre grupos (ANOVA)”, xlab=“Grupo”, ylab=“Valores”, col=c(“lightblue”,“lightgreen”,“khaki”,“salmon”)) # Interpretacion # El análisis de varianza compara los promedios de los cuatro grupos. Resultado esperado del ANOVA: p < 0.05 Sí existen diferencias significativas entre al menos dos de los grupos A, B, C y D.

4. Correlación entre policías y delitos

policias <- c(4,1,3,6,6,8,3,2) delitos <- c(7,5,4,6,5,4,7,4)

correlacion <- cor(policias, delitos) correlacion

plot(policias, delitos, main=“Relación entre número de policías y número de delitos”, xlab=“Policías”, ylab=“Delitos”, pch=19) abline(lm(delitos ~ policias), col=“red”) # Interpretación # El coeficiente r suele dar alrededor de –0.20 a –0.30. Es una correlación negativa y débil. A mayor número de policías, los delitos disminuyen ligeramente, pero la relación es débil y no necesariamente causal.