1. Estadística paramétrica y no paramétrica

Estadística paramétrica

La estadística paramétrica es un conjunto de procedimientos que requieren que los datos sigan una distribución específica, generalmente la normal. Suelen basarse en parámetros poblacionales como la media y la varianza.

¿Para qué sirve?

  • Comparar medias entre dos o más grupos.
  • Realizar inferencias cuando se cumplen los supuestos de normalidad.
  • Modelar relaciones mediante ecuaciones matemáticas.

Características principales

  • Requiere normalidad.
  • Usa media y desviación estándar.
  • Mayor potencia estadística.
  • Ejemplos: t de Student, ANOVA, regresión lineal.

Estadística no paramétrica

La estadística no paramétrica no requiere distribución normal y es útil para datos ordinales o con asimetría alta.

¿Para qué sirve?

  • Analizar datos ordinales o no normales.
  • Comparar grupos cuando no se cumplen supuestos paramétricos.
  • Reducir el efecto de los valores atípicos.

Características principales

  • No exige normalidad.
  • Usa frecuencias o rangos.
  • Menor potencia estadística.
  • Ejemplos: U de Mann-Whitney, Kruskal-Wallis.

Cuadro comparativo

Característica Paramétrica No paramétrica
Supuesto de normalidad No
Tipo de datos Intervalo/razón Ordinales o no normales
Uso de parámetros Media, varianza Rangos, frecuencias
Sensibilidad a valores extremos Alta Baja
Potencia estadística Alta Menor
Ejemplos ANOVA, t-test Mann-Whitney, Kruskal-Wallis

2. Pruebas de normalidad

# Datos
a <- c(28,26,31,21,21,32,24,26,28,30,26,23,20,28,33,28,33,23,27,31,28,29,34,32,33)
b <- c(22,29,24,24,23,23,25,23,33,28,31,23,28,28,26,30,30,28,22,19,29,18,31,28,27)
c <- c(23,26,29,28,25,19,22,27,33,22,22,22,15,19,24,25,20,25,34,21,23,18,26,26,23)
d <- c(28,28,25,25,25,30,27,28,29,28,25,28,27,28,30,25,28,28,28,30,27,25,25,28,30)
e <- c(28,27,28,25,27,28,25,27,29,27,25,25,29,29,29,28,28,25,27,28,28,25,29,25,27)
f <- c(25,28,27,29,27,25,25,25,25,27,27,28,28,25,27,27,25,25,27,28,25,28,29,25,27)

listas <- list(a=a, b=b, c=c, d=d, e=e, f=f)

Prueba de normalidad Shapiro-Wilk + gráficos

par(mfrow=c(2,2))

for (i in names(listas)) {
  cat("\n### Variable:", i, "\n")

  # Prueba Shapiro
  print(shapiro.test(listas[[i]]))

  # Histogramas y QQ-plots
  hist(listas[[i]], main=paste("Histograma", i), col="lightblue")
  qqnorm(listas[[i]], main=paste("QQ-Plot", i))
  qqline(listas[[i]])
}
## 
## ### Variable: a 
## 
##  Shapiro-Wilk normality test
## 
## data:  listas[[i]]
## W = 0.94766, p-value = 0.2219
## 
## ### Variable: b 
## 
##  Shapiro-Wilk normality test
## 
## data:  listas[[i]]
## W = 0.96162, p-value = 0.4477

## 
## ### Variable: c 
## 
##  Shapiro-Wilk normality test
## 
## data:  listas[[i]]
## W = 0.97045, p-value = 0.6566
## 
## ### Variable: d 
## 
##  Shapiro-Wilk normality test
## 
## data:  listas[[i]]
## W = 0.85145, p-value = 0.001877

## 
## ### Variable: e 
## 
##  Shapiro-Wilk normality test
## 
## data:  listas[[i]]
## W = 0.8403, p-value = 0.001159
## 
## ### Variable: f 
## 
##  Shapiro-Wilk normality test
## 
## data:  listas[[i]]
## W = 0.82721, p-value = 0.0006703


3. ANOVA

A <- c(21, 26, 31, 23, 21, 30, 26, 24, 22, 19)
B <- c(32, 30, 18, 27, 25, 28, 27, 27, 28, 22)
C <- c(26, 20, 24, 27, 21, 28, 24, 27, 32, 32)
D <- c(18, 30, 24, 27, 24, 21, 22, 22, 28, 29)

grupo <- factor(rep(c("A","B","C","D"), each=10))
valores <- c(A, B, C, D)

anova_model <- aov(valores ~ grupo)
summary(anova_model)
##             Df Sum Sq Mean Sq F value Pr(>F)
## grupo        3   34.9   11.62    0.74  0.535
## Residuals   36  565.9   15.72

Gráfico ANOVA

boxplot(valores ~ grupo,
        col="lightblue",
        main="Comparación entre grupos (ANOVA)",
        ylab="Valores")


4. Correlación y dispersión

policias <- c(4,1,3,6,6,8,3,2)
delitos <- c(7,5,4,6,5,4,7,4)

# Coeficiente de correlación
correlacion <- cor(policias, delitos)
correlacion
## [1] -0.05911884

Diagrama de dispersión

plot(policias, delitos,
     main="Relación entre policías y delitos",
     xlab="Número de policías",
     ylab="Número de delitos",
     pch=19,
     col="blue")