Análisis de Supuestos Paramétricos y Pruebas Estadísticas

Comparación de Producto Terminado entre Operadores

Author
Affiliation

Daniel Ortiz

Universidad Politécnica Estatal del Carchi

Published

December 17, 2025

1 Introducción

El presente documento tiene como objetivo realizar un análisis estadístico comparativo para determinar si existen diferencias significativas en el producto terminado (PTERMINADO) entre diferentes operadores. Para ello, se verificarán los supuestos paramétricos y se aplicarán las pruebas estadísticas correspondientes.

Se analizarán dos conjuntos de datos distintos, aplicando la metodología apropiada según el cumplimiento de los supuestos estadísticos.

2 Marco Teórico

2.1 Supuestos Paramétricos

Para realizar pruebas paramétricas como ANOVA, los datos deben cumplir con los siguientes supuestos:

  1. Normalidad: Los datos de cada grupo deben seguir una distribución normal
  2. Linealidad: Debe existir una relación lineal entre las variables
  3. Homogeneidad de varianzas: Las varianzas entre grupos deben ser similares
  4. Homocedasticidad: La varianza de los residuos debe ser constante

2.2 Pruebas Estadísticas

  • ANOVA (paramétrica): Se utiliza cuando se cumplen todos los supuestos
  • Kruskal-Wallis (no paramétrica): Se utiliza cuando no se cumplen los supuestos

3 EJERCICIO 1: Análisis con data_15.xlsx

3.1 Carga y Exploración de Datos

# Cargar librerías necesarias
library(readxl)
library(nortest)
library(car)
library(carData)

# Cargar datos
datos <- read_excel("../MARKDOWN/data_15.xlsx")

# Mostrar estructura de los datos
head(datos)
#> # A tibble: 6 × 3
#>    CORR PTERMINADO OPERADORES
#>   <dbl>      <dbl> <chr>     
#> 1     1        468 1T        
#> 2     2        468 1T        
#> 3     3        506 1T        
#> 4     4        453 1T        
#> 5     5        499 1T        
#> 6     6        471 1T

3.2 Resumen Estadístico

# Resumen estadístico general
summary(datos)
#>       CORR         PTERMINADO     OPERADORES       
#>  Min.   :  1.0   Min.   :452.0   Length:400        
#>  1st Qu.:100.8   1st Qu.:637.5   Class :character  
#>  Median :200.5   Median :747.0   Mode  :character  
#>  Mean   :200.5   Mean   :706.3                     
#>  3rd Qu.:300.2   3rd Qu.:813.0                     
#>  Max.   :400.0   Max.   :852.0

3.3 Visualización Inicial

# Boxplot para comparar grupos
boxplot(datos$PTERMINADO ~ datos$OPERADORES,
        main = "Producto Terminado por Operador",
        xlab = "Operadores",
        ylab = "Producto Terminado",
        col = c("lightblue", "lightgreen", "lightyellow", "lightcoral"))

Diagrama de cajas comparativo entre operadores

3.4 Verificación de Supuestos Paramétricos

3.4.1 1. Normalidad (Prueba de Lilliefors)

Hipótesis:

  • H₀: Los datos siguen una distribución normal
  • H₁: Los datos NO siguen una distribución normal

Criterio de decisión: Si p-valor > 0.05, no se rechaza H₀ (hay normalidad)

# Filtrar y probar normalidad para cada operador
data1 <- datos[datos$OPERADORES %in% "1T", "PTERMINADO"]
test1 <- lillie.test(data1$PTERMINADO)

data2 <- datos[datos$OPERADORES %in% "2T", "PTERMINADO"]
test2 <- lillie.test(data2$PTERMINADO)

data3 <- datos[datos$OPERADORES %in% "3T", "PTERMINADO"]
test3 <- lillie.test(data3$PTERMINADO)

data4 <- datos[datos$OPERADORES %in% "4T", "PTERMINADO"]
test4 <- lillie.test(data4$PTERMINADO)

# Tabla resumen de resultados
resultados_normalidad <- data.frame(
  Operador = c("1T", "2T", "3T", "4T"),
  P_Valor = c(test1$p.value, test2$p.value, test3$p.value, test4$p.value),
  Cumple = c(test1$p.value > 0.05, test2$p.value > 0.05, 
             test3$p.value > 0.05, test4$p.value > 0.05)
)

print(resultados_normalidad)
#>   Operador   P_Valor Cumple
#> 1       1T 0.4291888   TRUE
#> 2       2T 0.7437847   TRUE
#> 3       3T 0.5177485   TRUE
#> 4       4T 0.2543698   TRUE

Conclusión: Todos los grupos cumplen con el supuesto de normalidad (p > 0.05) ✅

3.4.2 2. Linealidad (Q-Q Plot de Residuos)

La linealidad se verifica mediante un gráfico Q-Q (Quantile-Quantile) de los residuos estandarizados. Si los puntos se alinean con la diagonal, se cumple el supuesto de linealidad.

ModeloLineal <- lm(PTERMINADO ~ OPERADORES, data = datos)
standarized <- rstudent(ModeloLineal)

# Gráfico Q-Q mejorado
par(bg = "white")
qqnorm(standarized, 
       main = "Gráfico Q-Q de Residuos Estandarizados",
       xlab = "Cuantiles Teóricos",
       ylab = "Residuos Estandarizados",
       col = "steelblue",
       pch = 19,
       cex = 1.2)
abline(0, 1, col = "red", lwd = 3, lty = 2)
grid(col = "gray", lty = "dotted")
Figure 1: Gráfico Q-Q de residuos estandarizados - Ejercicio 1

Interpretación:

  • Los puntos azules representan los residuos estandarizados
  • La línea roja diagonal representa la distribución normal teórica
  • Si los puntos están cerca de la línea → Se cumple linealidad

Conclusión: Los puntos se alinean adecuadamente con la diagonal, indicando que se cumple el supuesto de linealidad ✅

3.4.3 3. Homogeneidad de Varianzas (Prueba de Levene)

Hipótesis:

  • H₀: Las varianzas son homogéneas
  • H₁: Las varianzas NO son homogéneas
levene_result <- leveneTest(PTERMINADO ~ OPERADORES, data = datos)
print(levene_result)
#> Levene's Test for Homogeneity of Variance (center = median)
#>        Df F value    Pr(>F)    
#> group   3   16.86 2.515e-10 ***
#>       396                      
#> ---
#> Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Conclusión: p-valor < 0.05, se rechaza H₀. NO hay homogeneidad de varianzas

3.5 Decisión Estadística

Como NO se cumple el supuesto de homogeneidad, los datos son considerados NO PARAMÉTRICOS. Por lo tanto, se aplicará la prueba de Kruskal-Wallis.

3.6 Prueba de Kruskal-Wallis

Hipótesis:

  • H₀: No hay diferencias significativas entre los operadores
  • H₁: Sí hay diferencias significativas entre los operadores
kruskal_result <- kruskal.test(PTERMINADO ~ OPERADORES, data = datos)
print(kruskal_result)
#> 
#>  Kruskal-Wallis rank sum test
#> 
#> data:  PTERMINADO by OPERADORES
#> Kruskal-Wallis chi-squared = 354.78, df = 3, p-value < 2.2e-16

Interpretación:

Si p-valor < 0.05: Se rechaza H₀, existen diferencias significativas entre operadores.

3.7 Conclusiones - Ejercicio 1

3.7.1 Verificación de Supuestos

  • Normalidad: Cumple (p-valor > 0.05 en todos los operadores)
  • Linealidad: Cumple (los residuos estandarizados se alinean con la distribución normal)
  • Homogeneidad de varianzas: NO cumple (Prueba de Levene: p-valor < 0.05)

3.7.2 Decisión Metodológica

Dado que NO se cumple el supuesto de homogeneidad de varianzas, los datos se consideran NO PARAMÉTRICOS. Por lo tanto, se aplicó la prueba de Kruskal-Wallis.

3.7.3 Resultados de la Prueba de Kruskal-Wallis

Hipótesis planteada:

  • H₀: No existen diferencias significativas en el producto terminado entre los operadores
  • H₁: Sí existen diferencias significativas en el producto terminado entre los operadores

Decisión estadística:

Con base en la prueba de Kruskal-Wallis y un nivel de significancia α = 0.05 (nivel de confianza del 95%):

# Interpretación automática del resultado
if(kruskal_result$p.value < 0.05) {
  cat("→ Se RECHAZA H₀\n")
  cat("→ p-valor =", round(kruskal_result$p.value, 4), "< 0.05\n\n")
  cat("CONCLUSIÓN: Existe evidencia estadística suficiente para afirmar que hay\n")
  cat("diferencias significativas en el producto terminado entre al menos dos\n")
  cat("operadores, con un nivel de confianza del 95%.\n")
} else {
  cat("→ NO se rechaza H₀\n")
  cat("→ p-valor =", round(kruskal_result$p.value, 4), "> 0.05\n\n")
  cat("CONCLUSIÓN: No existe evidencia estadística suficiente para afirmar que\n")
  cat("hay diferencias significativas en el producto terminado entre los operadores,\n")
  cat("con un nivel de confianza del 95%.\n")
}
#> → Se RECHAZA H₀
#> → p-valor = 0 < 0.05
#> 
#> CONCLUSIÓN: Existe evidencia estadística suficiente para afirmar que hay
#> diferencias significativas en el producto terminado entre al menos dos
#> operadores, con un nivel de confianza del 95%.

3.7.4 Interpretación Práctica

  • La variabilidad no homogénea entre operadores sugiere que algunos tienen mayor variabilidad en su producción que otros.
  • Si existen diferencias significativas, se recomienda realizar un análisis post-hoc no paramétrico (Dunn, Nemenyi) para identificar qué pares de operadores difieren específicamente.
  • La falta de homogeneidad de varianzas indica que algunos operadores pueden tener procesos menos estandarizados.

4 EJERCICIO 2: Análisis con data_15.4.xlsx

4.1 Carga de Datos

datos2 <- read_excel("../MARKDOWN/data_15.4.xlsx")
head(datos2)
#> # A tibble: 6 × 3
#>    CORR PTERMINADO OPERADORES
#>   <dbl>      <dbl> <chr>     
#> 1     1        521 1T        
#> 2     2        496 1T        
#> 3     3        510 1T        
#> 4     4        542 1T        
#> 5     5        541 1T        
#> 6     6        462 1T

4.2 Verificación de Supuestos Paramétricos

4.2.1 1. Normalidad

# Pruebas de normalidad para cada operador
data1_2 <- datos2[datos2$OPERADORES %in% "1T", "PTERMINADO"]
test1_2 <- lillie.test(data1_2$PTERMINADO)

data2_2 <- datos2[datos2$OPERADORES %in% "2T", "PTERMINADO"]
test2_2 <- lillie.test(data2_2$PTERMINADO)

data3_2 <- datos2[datos2$OPERADORES %in% "3T", "PTERMINADO"]
test3_2 <- lillie.test(data3_2$PTERMINADO)

data4_2 <- datos2[datos2$OPERADORES %in% "4T", "PTERMINADO"]
test4_2 <- lillie.test(data4_2$PTERMINADO)

resultados_normalidad2 <- data.frame(
  Operador = c("1T", "2T", "3T", "4T"),
  P_Valor = c(test1_2$p.value, test2_2$p.value, test3_2$p.value, test4_2$p.value),
  Cumple = c(test1_2$p.value > 0.05, test2_2$p.value > 0.05, 
             test3_2$p.value > 0.05, test4_2$p.value > 0.05)
)

print(resultados_normalidad2)
#>   Operador   P_Valor Cumple
#> 1       1T 0.6574193   TRUE
#> 2       2T 0.2177883   TRUE
#> 3       3T 0.8060647   TRUE
#> 4       4T 0.5337292   TRUE

Conclusión: Cumple normalidad ✅

4.2.2 2. Linealidad (Q-Q Plot de Residuos)

La linealidad se verifica mediante un gráfico Q-Q de los residuos estandarizados.

ModeloLineal2 <- lm(PTERMINADO ~ OPERADORES, data = datos2)
standarized2 <- rstudent(ModeloLineal2)

par(bg = "white")
qqnorm(standarized2, 
       main = "Gráfico Q-Q de Residuos Estandarizados - Ejercicio 2",
       xlab = "Cuantiles Teóricos",
       ylab = "Residuos Estandarizados",
       col = "darkgreen",
       pch = 19,
       cex = 1.2)
abline(0, 1, col = "red", lwd = 3, lty = 2)
grid(col = "gray", lty = "dotted")
Figure 2: Q-Q Plot de residuos estandarizados - Ejercicio 2

Interpretación: Los puntos se distribuyen cerca de la línea diagonal, confirmando linealidad.

Conclusión: Cumple linealidad ✅

4.2.3 3. Homogeneidad de Varianzas

levene_result2 <- leveneTest(PTERMINADO ~ OPERADORES, data = datos2)
print(levene_result2)
#> Levene's Test for Homogeneity of Variance (center = median)
#>        Df F value Pr(>F)
#> group   3  1.9276 0.1245
#>       396

Conclusión: p-valor = 0.12 > 0.05, SÍ hay homogeneidad

4.2.4 4. Homocedasticidad (Prueba de Breusch-Pagan)

library(lmtest)
bp_result <- bptest(ModeloLineal2)
print(bp_result)
#> 
#>  studentized Breusch-Pagan test
#> 
#> data:  ModeloLineal2
#> BP = 8.044, df = 3, p-value = 0.04511

Conclusión: p-valor > 0.05, SÍ hay homocedasticidad

4.3 Decisión Estadística

Como SÍ se cumplen TODOS los supuestos paramétricos, se aplicará la prueba ANOVA.

4.4 Prueba ANOVA

Hipótesis:

  • H₀: No hay diferencias significativas entre los operadores
  • H₁: Sí hay diferencias significativas entre los operadores
anova_result <- aov(datos2$PTERMINADO ~ datos2$OPERADORES)
summary(anova_result)
#>                    Df  Sum Sq Mean Sq F value Pr(>F)    
#> datos2$OPERADORES   3 6035072 2011691    4659 <2e-16 ***
#> Residuals         396  170990     432                   
#> ---
#> Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Interpretación: Si p-valor < 0.05, existen diferencias significativas.

4.5 Análisis Post-Hoc: Prueba de Tukey

Para identificar qué pares de operadores difieren significativamente:

tukey_result <- TukeyHSD(anova_result)
print(tukey_result)
#>   Tukey multiple comparisons of means
#>     95% family-wise confidence level
#> 
#> Fit: aov(formula = datos2$PTERMINADO ~ datos2$OPERADORES)
#> 
#> $`datos2$OPERADORES`
#>         diff        lwr       upr     p adj
#> 2T-1T 200.70 193.118273 208.28173 0.0000000
#> 3T-1T 296.65 289.068273 304.23173 0.0000000
#> 4T-1T 304.93 297.348273 312.51173 0.0000000
#> 3T-2T  95.95  88.368273 103.53173 0.0000000
#> 4T-2T 104.23  96.648273 111.81173 0.0000000
#> 4T-3T   8.28   0.698273  15.86173 0.0260409
plot(tukey_result, las = 1, col = "blue")

Intervalos de confianza de Tukey HSD

4.6 Comparaciones Múltiples (Bonferroni)

pairwise_result <- pairwise.t.test(datos2$PTERMINADO, 
                                    datos2$OPERADORES,
                                    paired = FALSE,
                                    var.equal = TRUE,
                                    p.adjust.method = "bonferroni")
print(pairwise_result)
#> 
#>  Pairwise comparisons using t tests with pooled SD 
#> 
#> data:  datos2$PTERMINADO and datos2$OPERADORES 
#> 
#>    1T     2T     3T  
#> 2T <2e-16 -      -   
#> 3T <2e-16 <2e-16 -   
#> 4T <2e-16 <2e-16 0.03
#> 
#> P value adjustment method: bonferroni

4.7 Conclusiones - Ejercicio 2

4.7.1 Verificación de Supuestos

  • Normalidad: Cumple (p-valor > 0.05 en todos los operadores)
  • Linealidad: Cumple (residuos estandarizados siguen patrón lineal)
  • Homogeneidad de varianzas: Cumple (Prueba de Levene: p-valor = 0.12 > 0.05)
  • Homocedasticidad: Cumple (Prueba de Breusch-Pagan: p-valor > 0.05)

4.7.2 Decisión Metodológica

Como se cumplen TODOS los supuestos paramétricos, se aplicó la prueba ANOVA de un factor.

4.7.3 Resultados de la Prueba ANOVA

Hipótesis planteada:

  • H₀: Las medias del producto terminado son iguales entre todos los operadores (μ₁ = μ₂ = μ₃ = μ₄)
  • H₁: Al menos una media difiere de las demás

Decisión estadística:

# Extraer p-valor del ANOVA
anova_summary <- summary(anova_result)
p_valor_anova <- anova_summary[[1]][["Pr(>F)"]][1]

# Interpretación automática del resultado
cat("Con base en la prueba ANOVA y un nivel de significancia α = 0.05\n")
#> Con base en la prueba ANOVA y un nivel de significancia α = 0.05
cat("(nivel de confianza del 95%):\n\n")
#> (nivel de confianza del 95%):
if(p_valor_anova < 0.05) {
  cat("→ Se RECHAZA H₀\n")
  cat("→ p-valor =", round(p_valor_anova, 4), "< 0.05\n\n")
  cat("CONCLUSIÓN: Existe evidencia estadística suficiente para afirmar que al menos\n")
  cat("un operador presenta una media de producto terminado significativamente\n")
  cat("diferente a los demás, con un nivel de confianza del 95%.\n")
} else {
  cat("→ NO se rechaza H₀\n")
  cat("→ p-valor =", round(p_valor_anova, 4), "> 0.05\n\n")
  cat("CONCLUSIÓN: No existe evidencia estadística suficiente para afirmar que\n")
  cat("las medias del producto terminado difieren entre los operadores, con un\n")
  cat("nivel de confianza del 95%.\n")
}
#> → Se RECHAZA H₀
#> → p-valor = 0 < 0.05
#> 
#> CONCLUSIÓN: Existe evidencia estadística suficiente para afirmar que al menos
#> un operador presenta una media de producto terminado significativamente
#> diferente a los demás, con un nivel de confianza del 95%.

4.7.4 Análisis Post-Hoc (Prueba de Tukey HSD)

if(p_valor_anova < 0.05) {
  cat("\nComo se rechazó H₀ en ANOVA, procedemos con el análisis post-hoc:\n\n")
  cat("Interpretación de comparaciones por pares (Tukey HSD):\n")
  cat(paste(rep("=", 60), collapse=""), "\n\n")
  
  # Análisis de las comparaciones de Tukey
  comparaciones <- as.data.frame(tukey_result$`datos2$OPERADORES`)
  comparaciones$Comparacion <- rownames(comparaciones)
  
  for(i in 1:nrow(comparaciones)) {
    comp <- comparaciones$Comparacion[i]
    p_val <- comparaciones$`p adj`[i]
    
    cat("Comparación:", comp, "\n")
    cat("  p-valor ajustado =", round(p_val, 4), "\n")
    
    if(p_val < 0.05) {
      cat("  → Existe diferencia significativa entre estos operadores\n")
      cat("  → Los operadores", comp, "tienen medias significativamente diferentes\n")
      cat("     con un nivel de confianza del 95%.\n\n")
    } else {
      cat("  → No existe diferencia significativa\n")
      cat("  → No hay evidencia suficiente para afirmar que los operadores\n")
      cat("    ", comp, "difieren en su producto terminado promedio,\n")
      cat("     con un nivel de confianza del 95%.\n\n")
    }
  }
} else {
  cat("\nComo no se rechazó H₀ en ANOVA, no es necesario realizar análisis post-hoc.\n")
}
#> 
#> Como se rechazó H₀ en ANOVA, procedemos con el análisis post-hoc:
#> 
#> Interpretación de comparaciones por pares (Tukey HSD):
#> ============================================================ 
#> 
#> Comparación: 2T-1T 
#>   p-valor ajustado = 0 
#>   → Existe diferencia significativa entre estos operadores
#>   → Los operadores 2T-1T tienen medias significativamente diferentes
#>      con un nivel de confianza del 95%.
#> 
#> Comparación: 3T-1T 
#>   p-valor ajustado = 0 
#>   → Existe diferencia significativa entre estos operadores
#>   → Los operadores 3T-1T tienen medias significativamente diferentes
#>      con un nivel de confianza del 95%.
#> 
#> Comparación: 4T-1T 
#>   p-valor ajustado = 0 
#>   → Existe diferencia significativa entre estos operadores
#>   → Los operadores 4T-1T tienen medias significativamente diferentes
#>      con un nivel de confianza del 95%.
#> 
#> Comparación: 3T-2T 
#>   p-valor ajustado = 0 
#>   → Existe diferencia significativa entre estos operadores
#>   → Los operadores 3T-2T tienen medias significativamente diferentes
#>      con un nivel de confianza del 95%.
#> 
#> Comparación: 4T-2T 
#>   p-valor ajustado = 0 
#>   → Existe diferencia significativa entre estos operadores
#>   → Los operadores 4T-2T tienen medias significativamente diferentes
#>      con un nivel de confianza del 95%.
#> 
#> Comparación: 4T-3T 
#>   p-valor ajustado = 0.026 
#>   → Existe diferencia significativa entre estos operadores
#>   → Los operadores 4T-3T tienen medias significativamente diferentes
#>      con un nivel de confianza del 95%.

4.7.5 Análisis de Comparaciones Múltiples (Bonferroni)

El método de Bonferroni es más conservador que Tukey y controla mejor el error tipo I:

cat("\nMétodo de Bonferroni (más conservador):\n")
#> 
#> Método de Bonferroni (más conservador):
cat(paste(rep("=", 60), collapse=""), "\n\n")
#> ============================================================
# Matriz de p-valores de Bonferroni
bonf_matrix <- pairwise_result$p.value

# Imprimir interpretación
cat("Matriz de p-valores ajustados (Bonferroni):\n")
#> Matriz de p-valores ajustados (Bonferroni):
print(round(bonf_matrix, 4))
#>    1T 2T     3T
#> 2T  0 NA     NA
#> 3T  0  0     NA
#> 4T  0  0 0.0305
cat("\n\nInterpretación:\n")
#> 
#> 
#> Interpretación:
cat("- Valores < 0.05: Diferencia significativa\n")
#> - Valores < 0.05: Diferencia significativa
cat("- Valores > 0.05: No hay diferencia significativa\n")
#> - Valores > 0.05: No hay diferencia significativa
cat("- NA: No aplicable (misma comparación)\n")
#> - NA: No aplicable (misma comparación)

5 Conclusiones Generales

5.1 Comparación entre Ejercicios

5.1.1 Ejercicio 1 (data_15.xlsx)

  • ✅ Cumple normalidad y linealidad
  • ❌ NO cumple homogeneidad de varianzas
  • Prueba aplicada: Kruskal-Wallis (no paramétrica)
  • Razón: La falta de homogeneidad de varianzas viola supuestos paramétricos

5.1.2 Ejercicio 2 (data_15.4.xlsx)

  • ✅ Cumple todos los supuestos paramétricos
  • Prueba aplicada: ANOVA paramétrico
  • Post-hoc: Tukey HSD y comparaciones con corrección de Bonferroni
  • Ventaja: Mayor poder estadístico al usar métodos paramétricos

5.2 Recomendaciones Metodológicas

5.2.1 1. Importancia de la Verificación de Supuestos

La verificación de supuestos es crucial antes de elegir la prueba estadística:

  • Una prueba paramétrica aplicada incorrectamente puede llevar a conclusiones erróneas
  • Las pruebas no paramétricas son más robustas cuando los supuestos no se cumplen
  • El nivel de confianza (generalmente 95% o α = 0.05) debe mantenerse consistente

5.2.2 2. Interpretación de Resultados

Rechazar H₀ significa:

  • Hay evidencia estadística de diferencias
  • NO significa que todas las diferencias sean prácticas o relevantes
  • Se debe evaluar el tamaño del efecto y la significancia práctica

No rechazar H₀ significa:

  • No hay suficiente evidencia para afirmar diferencias
  • NO significa que las medias sean exactamente iguales
  • Puede deberse a falta de poder estadístico o tamaño de muestra insuficiente

5.2.3 3. Selección de Pruebas Post-Hoc

Cuando ANOVA resulta significativo:

  • Tukey HSD: Recomendado cuando se comparan todos los pares posibles
  • Bonferroni: Más conservador, reduce el error tipo I pero aumenta el error tipo II
  • Dunnett: Cuando se compara contra un grupo control específico

5.2.4 4. Consideraciones Prácticas

  • Tamaño de muestra: Muestras grandes pueden detectar diferencias triviales como significativas
  • Significancia práctica vs. estadística: Una diferencia puede ser estadísticamente significativa pero no importante en la práctica
  • Contexto del problema: Siempre interpretar resultados en el contexto del problema real

5.3 Limitaciones del Estudio

  1. Los resultados son válidos bajo el supuesto de muestreo aleatorio
  2. La generalización depende de la representatividad de la muestra
  3. Factores externos no controlados pueden influir en los resultados
  4. Las pruebas asumen independencia de observaciones

5.4 Recomendaciones Finales

  1. Documentar siempre la verificación de supuestos antes de elegir la prueba
  2. Reportar tanto la significancia estadística como la práctica
  3. Considerar el tamaño del efecto además del p-valor
  4. Replicar el estudio si es posible para confirmar resultados
  5. Investigar causas de diferencias encontradas, no solo reportarlas