Análisis de Supuestos Paramétricos y Pruebas Estadísticas
Comparación de Producto Terminado entre Operadores
Author
Affiliation
Daniel Ortiz
Universidad Politécnica Estatal del Carchi
Published
December 17, 2025
1 Introducción
El presente documento tiene como objetivo realizar un análisis estadístico comparativo para determinar si existen diferencias significativas en el producto terminado (PTERMINADO) entre diferentes operadores. Para ello, se verificarán los supuestos paramétricos y se aplicarán las pruebas estadísticas correspondientes.
Se analizarán dos conjuntos de datos distintos, aplicando la metodología apropiada según el cumplimiento de los supuestos estadísticos.
2 Marco Teórico
2.1 Supuestos Paramétricos
Para realizar pruebas paramétricas como ANOVA, los datos deben cumplir con los siguientes supuestos:
Normalidad: Los datos de cada grupo deben seguir una distribución normal
Linealidad: Debe existir una relación lineal entre las variables
Homogeneidad de varianzas: Las varianzas entre grupos deben ser similares
Homocedasticidad: La varianza de los residuos debe ser constante
2.2 Pruebas Estadísticas
ANOVA (paramétrica): Se utiliza cuando se cumplen todos los supuestos
Kruskal-Wallis (no paramétrica): Se utiliza cuando no se cumplen los supuestos
3 EJERCICIO 1: Análisis con data_15.xlsx
3.1 Carga y Exploración de Datos
# Cargar librerías necesariaslibrary(readxl)library(nortest)library(car)library(carData)# Cargar datosdatos <-read_excel("../MARKDOWN/data_15.xlsx")# Mostrar estructura de los datoshead(datos)
Conclusión: Todos los grupos cumplen con el supuesto de normalidad (p > 0.05) ✅
3.4.2 2. Linealidad (Q-Q Plot de Residuos)
La linealidad se verifica mediante un gráfico Q-Q (Quantile-Quantile) de los residuos estandarizados. Si los puntos se alinean con la diagonal, se cumple el supuesto de linealidad.
ModeloLineal <-lm(PTERMINADO ~ OPERADORES, data = datos)standarized <-rstudent(ModeloLineal)# Gráfico Q-Q mejoradopar(bg ="white")qqnorm(standarized, main ="Gráfico Q-Q de Residuos Estandarizados",xlab ="Cuantiles Teóricos",ylab ="Residuos Estandarizados",col ="steelblue",pch =19,cex =1.2)abline(0, 1, col ="red", lwd =3, lty =2)grid(col ="gray", lty ="dotted")
Figure 1: Gráfico Q-Q de residuos estandarizados - Ejercicio 1
Interpretación:
Los puntos azules representan los residuos estandarizados
La línea roja diagonal representa la distribución normal teórica
Si los puntos están cerca de la línea → Se cumple linealidad
Conclusión: Los puntos se alinean adecuadamente con la diagonal, indicando que se cumple el supuesto de linealidad ✅
3.4.3 3. Homogeneidad de Varianzas (Prueba de Levene)
Hipótesis:
H₀: Las varianzas son homogéneas
H₁: Las varianzas NO son homogéneas
levene_result <-leveneTest(PTERMINADO ~ OPERADORES, data = datos)print(levene_result)
#> Levene's Test for Homogeneity of Variance (center = median)
#> Df F value Pr(>F)
#> group 3 16.86 2.515e-10 ***
#> 396
#> ---
#> Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Conclusión: p-valor < 0.05, se rechaza H₀. NO hay homogeneidad de varianzas ❌
3.5 Decisión Estadística
Como NO se cumple el supuesto de homogeneidad, los datos son considerados NO PARAMÉTRICOS. Por lo tanto, se aplicará la prueba de Kruskal-Wallis.
3.6 Prueba de Kruskal-Wallis
Hipótesis:
H₀: No hay diferencias significativas entre los operadores
H₁: Sí hay diferencias significativas entre los operadores
kruskal_result <-kruskal.test(PTERMINADO ~ OPERADORES, data = datos)print(kruskal_result)
#>
#> Kruskal-Wallis rank sum test
#>
#> data: PTERMINADO by OPERADORES
#> Kruskal-Wallis chi-squared = 354.78, df = 3, p-value < 2.2e-16
Interpretación:
Si p-valor < 0.05: Se rechaza H₀, existen diferencias significativas entre operadores.
3.7 Conclusiones - Ejercicio 1
3.7.1 Verificación de Supuestos
✅ Normalidad: Cumple (p-valor > 0.05 en todos los operadores)
✅ Linealidad: Cumple (los residuos estandarizados se alinean con la distribución normal)
❌ Homogeneidad de varianzas: NO cumple (Prueba de Levene: p-valor < 0.05)
3.7.2 Decisión Metodológica
Dado que NO se cumple el supuesto de homogeneidad de varianzas, los datos se consideran NO PARAMÉTRICOS. Por lo tanto, se aplicó la prueba de Kruskal-Wallis.
3.7.3 Resultados de la Prueba de Kruskal-Wallis
Hipótesis planteada:
H₀: No existen diferencias significativas en el producto terminado entre los operadores
H₁: Sí existen diferencias significativas en el producto terminado entre los operadores
Decisión estadística:
Con base en la prueba de Kruskal-Wallis y un nivel de significancia α = 0.05 (nivel de confianza del 95%):
# Interpretación automática del resultadoif(kruskal_result$p.value <0.05) {cat("→ Se RECHAZA H₀\n")cat("→ p-valor =", round(kruskal_result$p.value, 4), "< 0.05\n\n")cat("CONCLUSIÓN: Existe evidencia estadística suficiente para afirmar que hay\n")cat("diferencias significativas en el producto terminado entre al menos dos\n")cat("operadores, con un nivel de confianza del 95%.\n")} else {cat("→ NO se rechaza H₀\n")cat("→ p-valor =", round(kruskal_result$p.value, 4), "> 0.05\n\n")cat("CONCLUSIÓN: No existe evidencia estadística suficiente para afirmar que\n")cat("hay diferencias significativas en el producto terminado entre los operadores,\n")cat("con un nivel de confianza del 95%.\n")}
#> → Se RECHAZA H₀
#> → p-valor = 0 < 0.05
#>
#> CONCLUSIÓN: Existe evidencia estadística suficiente para afirmar que hay
#> diferencias significativas en el producto terminado entre al menos dos
#> operadores, con un nivel de confianza del 95%.
3.7.4 Interpretación Práctica
La variabilidad no homogénea entre operadores sugiere que algunos tienen mayor variabilidad en su producción que otros.
Si existen diferencias significativas, se recomienda realizar un análisis post-hoc no paramétrico (Dunn, Nemenyi) para identificar qué pares de operadores difieren específicamente.
La falta de homogeneidad de varianzas indica que algunos operadores pueden tener procesos menos estandarizados.
✅ Homogeneidad de varianzas: Cumple (Prueba de Levene: p-valor = 0.12 > 0.05)
✅ Homocedasticidad: Cumple (Prueba de Breusch-Pagan: p-valor > 0.05)
4.7.2 Decisión Metodológica
Como se cumplen TODOS los supuestos paramétricos, se aplicó la prueba ANOVA de un factor.
4.7.3 Resultados de la Prueba ANOVA
Hipótesis planteada:
H₀: Las medias del producto terminado son iguales entre todos los operadores (μ₁ = μ₂ = μ₃ = μ₄)
H₁: Al menos una media difiere de las demás
Decisión estadística:
# Extraer p-valor del ANOVAanova_summary <-summary(anova_result)p_valor_anova <- anova_summary[[1]][["Pr(>F)"]][1]# Interpretación automática del resultadocat("Con base en la prueba ANOVA y un nivel de significancia α = 0.05\n")
#> Con base en la prueba ANOVA y un nivel de significancia α = 0.05
cat("(nivel de confianza del 95%):\n\n")
#> (nivel de confianza del 95%):
if(p_valor_anova <0.05) {cat("→ Se RECHAZA H₀\n")cat("→ p-valor =", round(p_valor_anova, 4), "< 0.05\n\n")cat("CONCLUSIÓN: Existe evidencia estadística suficiente para afirmar que al menos\n")cat("un operador presenta una media de producto terminado significativamente\n")cat("diferente a los demás, con un nivel de confianza del 95%.\n")} else {cat("→ NO se rechaza H₀\n")cat("→ p-valor =", round(p_valor_anova, 4), "> 0.05\n\n")cat("CONCLUSIÓN: No existe evidencia estadística suficiente para afirmar que\n")cat("las medias del producto terminado difieren entre los operadores, con un\n")cat("nivel de confianza del 95%.\n")}
#> → Se RECHAZA H₀
#> → p-valor = 0 < 0.05
#>
#> CONCLUSIÓN: Existe evidencia estadística suficiente para afirmar que al menos
#> un operador presenta una media de producto terminado significativamente
#> diferente a los demás, con un nivel de confianza del 95%.
4.7.4 Análisis Post-Hoc (Prueba de Tukey HSD)
if(p_valor_anova <0.05) {cat("\nComo se rechazó H₀ en ANOVA, procedemos con el análisis post-hoc:\n\n")cat("Interpretación de comparaciones por pares (Tukey HSD):\n")cat(paste(rep("=", 60), collapse=""), "\n\n")# Análisis de las comparaciones de Tukey comparaciones <-as.data.frame(tukey_result$`datos2$OPERADORES`) comparaciones$Comparacion <-rownames(comparaciones)for(i in1:nrow(comparaciones)) { comp <- comparaciones$Comparacion[i] p_val <- comparaciones$`p adj`[i]cat("Comparación:", comp, "\n")cat(" p-valor ajustado =", round(p_val, 4), "\n")if(p_val <0.05) {cat(" → Existe diferencia significativa entre estos operadores\n")cat(" → Los operadores", comp, "tienen medias significativamente diferentes\n")cat(" con un nivel de confianza del 95%.\n\n") } else {cat(" → No existe diferencia significativa\n")cat(" → No hay evidencia suficiente para afirmar que los operadores\n")cat(" ", comp, "difieren en su producto terminado promedio,\n")cat(" con un nivel de confianza del 95%.\n\n") } }} else {cat("\nComo no se rechazó H₀ en ANOVA, no es necesario realizar análisis post-hoc.\n")}
#>
#> Como se rechazó H₀ en ANOVA, procedemos con el análisis post-hoc:
#>
#> Interpretación de comparaciones por pares (Tukey HSD):
#> ============================================================
#>
#> Comparación: 2T-1T
#> p-valor ajustado = 0
#> → Existe diferencia significativa entre estos operadores
#> → Los operadores 2T-1T tienen medias significativamente diferentes
#> con un nivel de confianza del 95%.
#>
#> Comparación: 3T-1T
#> p-valor ajustado = 0
#> → Existe diferencia significativa entre estos operadores
#> → Los operadores 3T-1T tienen medias significativamente diferentes
#> con un nivel de confianza del 95%.
#>
#> Comparación: 4T-1T
#> p-valor ajustado = 0
#> → Existe diferencia significativa entre estos operadores
#> → Los operadores 4T-1T tienen medias significativamente diferentes
#> con un nivel de confianza del 95%.
#>
#> Comparación: 3T-2T
#> p-valor ajustado = 0
#> → Existe diferencia significativa entre estos operadores
#> → Los operadores 3T-2T tienen medias significativamente diferentes
#> con un nivel de confianza del 95%.
#>
#> Comparación: 4T-2T
#> p-valor ajustado = 0
#> → Existe diferencia significativa entre estos operadores
#> → Los operadores 4T-2T tienen medias significativamente diferentes
#> con un nivel de confianza del 95%.
#>
#> Comparación: 4T-3T
#> p-valor ajustado = 0.026
#> → Existe diferencia significativa entre estos operadores
#> → Los operadores 4T-3T tienen medias significativamente diferentes
#> con un nivel de confianza del 95%.
4.7.5 Análisis de Comparaciones Múltiples (Bonferroni)
El método de Bonferroni es más conservador que Tukey y controla mejor el error tipo I:
cat("\nMétodo de Bonferroni (más conservador):\n")
cat("- Valores > 0.05: No hay diferencia significativa\n")
#> - Valores > 0.05: No hay diferencia significativa
cat("- NA: No aplicable (misma comparación)\n")
#> - NA: No aplicable (misma comparación)
5 Conclusiones Generales
5.1 Comparación entre Ejercicios
5.1.1 Ejercicio 1 (data_15.xlsx)
✅ Cumple normalidad y linealidad
❌ NO cumple homogeneidad de varianzas
Prueba aplicada: Kruskal-Wallis (no paramétrica)
Razón: La falta de homogeneidad de varianzas viola supuestos paramétricos
5.1.2 Ejercicio 2 (data_15.4.xlsx)
✅ Cumple todos los supuestos paramétricos
Prueba aplicada: ANOVA paramétrico
Post-hoc: Tukey HSD y comparaciones con corrección de Bonferroni
Ventaja: Mayor poder estadístico al usar métodos paramétricos
5.2 Recomendaciones Metodológicas
5.2.1 1. Importancia de la Verificación de Supuestos
La verificación de supuestos es crucial antes de elegir la prueba estadística:
Una prueba paramétrica aplicada incorrectamente puede llevar a conclusiones erróneas
Las pruebas no paramétricas son más robustas cuando los supuestos no se cumplen
El nivel de confianza (generalmente 95% o α = 0.05) debe mantenerse consistente
5.2.2 2. Interpretación de Resultados
Rechazar H₀ significa:
Hay evidencia estadística de diferencias
NO significa que todas las diferencias sean prácticas o relevantes
Se debe evaluar el tamaño del efecto y la significancia práctica
No rechazar H₀ significa:
No hay suficiente evidencia para afirmar diferencias
NO significa que las medias sean exactamente iguales
Puede deberse a falta de poder estadístico o tamaño de muestra insuficiente
5.2.3 3. Selección de Pruebas Post-Hoc
Cuando ANOVA resulta significativo:
Tukey HSD: Recomendado cuando se comparan todos los pares posibles
Bonferroni: Más conservador, reduce el error tipo I pero aumenta el error tipo II
Dunnett: Cuando se compara contra un grupo control específico
5.2.4 4. Consideraciones Prácticas
Tamaño de muestra: Muestras grandes pueden detectar diferencias triviales como significativas
Significancia práctica vs. estadística: Una diferencia puede ser estadísticamente significativa pero no importante en la práctica
Contexto del problema: Siempre interpretar resultados en el contexto del problema real
5.3 Limitaciones del Estudio
Los resultados son válidos bajo el supuesto de muestreo aleatorio
La generalización depende de la representatividad de la muestra
Factores externos no controlados pueden influir en los resultados
Las pruebas asumen independencia de observaciones
5.4 Recomendaciones Finales
Documentar siempre la verificación de supuestos antes de elegir la prueba
Reportar tanto la significancia estadística como la práctica
Considerar el tamaño del efecto además del p-valor
Replicar el estudio si es posible para confirmar resultados
Investigar causas de diferencias encontradas, no solo reportarlas
Source Code
---title: "Análisis de Supuestos Paramétricos y Pruebas Estadísticas"subtitle: "Comparación de Producto Terminado entre Operadores"author: "Daniel Ortiz"date: todayformat: html: toc: true toc-depth: 3 number-sections: true theme: cosmo code-fold: false code-tools: true embed-resources: trueinstitute: "Universidad Politécnica Estatal del Carchi"course: "Estadística Inferencial"execute: warning: false message: false error: falseknitr: opts_chunk: comment: "#>"---# IntroducciónEl presente documento tiene como objetivo realizar un análisis estadístico comparativo para determinar si existen diferencias significativas en el producto terminado (`PTERMINADO`) entre diferentes operadores. Para ello, se verificarán los supuestos paramétricos y se aplicarán las pruebas estadísticas correspondientes.Se analizarán dos conjuntos de datos distintos, aplicando la metodología apropiada según el cumplimiento de los supuestos estadísticos.# Marco Teórico## Supuestos ParamétricosPara realizar pruebas paramétricas como ANOVA, los datos deben cumplir con los siguientes supuestos:1. **Normalidad**: Los datos de cada grupo deben seguir una distribución normal2. **Linealidad**: Debe existir una relación lineal entre las variables3. **Homogeneidad de varianzas**: Las varianzas entre grupos deben ser similares4. **Homocedasticidad**: La varianza de los residuos debe ser constante## Pruebas Estadísticas- **ANOVA (paramétrica)**: Se utiliza cuando se cumplen todos los supuestos- **Kruskal-Wallis (no paramétrica)**: Se utiliza cuando no se cumplen los supuestos------------------------------------------------------------------------# EJERCICIO 1: Análisis con data_15.xlsx## Carga y Exploración de Datos```{r}#| warning: false#| message: false# Cargar librerías necesariaslibrary(readxl)library(nortest)library(car)library(carData)# Cargar datosdatos <-read_excel("../MARKDOWN/data_15.xlsx")# Mostrar estructura de los datoshead(datos)```## Resumen Estadístico```{r}# Resumen estadístico generalsummary(datos)```## Visualización Inicial```{r}#| fig-cap: "Diagrama de cajas comparativo entre operadores"# Boxplot para comparar gruposboxplot(datos$PTERMINADO ~ datos$OPERADORES,main ="Producto Terminado por Operador",xlab ="Operadores",ylab ="Producto Terminado",col =c("lightblue", "lightgreen", "lightyellow", "lightcoral"))```## Verificación de Supuestos Paramétricos### 1. Normalidad (Prueba de Lilliefors)**Hipótesis:**- H₀: Los datos siguen una distribución normal- H₁: Los datos NO siguen una distribución normal**Criterio de decisión:** Si p-valor \> 0.05, no se rechaza H₀ (hay normalidad)```{r}# Filtrar y probar normalidad para cada operadordata1 <- datos[datos$OPERADORES %in%"1T", "PTERMINADO"]test1 <-lillie.test(data1$PTERMINADO)data2 <- datos[datos$OPERADORES %in%"2T", "PTERMINADO"]test2 <-lillie.test(data2$PTERMINADO)data3 <- datos[datos$OPERADORES %in%"3T", "PTERMINADO"]test3 <-lillie.test(data3$PTERMINADO)data4 <- datos[datos$OPERADORES %in%"4T", "PTERMINADO"]test4 <-lillie.test(data4$PTERMINADO)# Tabla resumen de resultadosresultados_normalidad <-data.frame(Operador =c("1T", "2T", "3T", "4T"),P_Valor =c(test1$p.value, test2$p.value, test3$p.value, test4$p.value),Cumple =c(test1$p.value >0.05, test2$p.value >0.05, test3$p.value >0.05, test4$p.value >0.05))print(resultados_normalidad)```**Conclusión:** Todos los grupos cumplen con el supuesto de normalidad (p \> 0.05) ✅### 2. Linealidad (Q-Q Plot de Residuos)La linealidad se verifica mediante un gráfico Q-Q (Quantile-Quantile) de los residuos estandarizados. Si los puntos se alinean con la diagonal, se cumple el supuesto de linealidad.```{r}#| label: fig-qq1#| fig-cap: "Gráfico Q-Q de residuos estandarizados - Ejercicio 1"#| fig-width: 8#| fig-height: 6#| echo: trueModeloLineal <-lm(PTERMINADO ~ OPERADORES, data = datos)standarized <-rstudent(ModeloLineal)# Gráfico Q-Q mejoradopar(bg ="white")qqnorm(standarized, main ="Gráfico Q-Q de Residuos Estandarizados",xlab ="Cuantiles Teóricos",ylab ="Residuos Estandarizados",col ="steelblue",pch =19,cex =1.2)abline(0, 1, col ="red", lwd =3, lty =2)grid(col ="gray", lty ="dotted")```**Interpretación:**- Los puntos azules representan los residuos estandarizados- La línea roja diagonal representa la distribución normal teórica- Si los puntos están cerca de la línea → Se cumple linealidad**Conclusión:** Los puntos se alinean adecuadamente con la diagonal, indicando que se cumple el supuesto de linealidad ✅### 3. Homogeneidad de Varianzas (Prueba de Levene)**Hipótesis:**- H₀: Las varianzas son homogéneas- H₁: Las varianzas NO son homogéneas```{r}levene_result <-leveneTest(PTERMINADO ~ OPERADORES, data = datos)print(levene_result)```**Conclusión:** p-valor \< 0.05, se rechaza H₀. **NO hay homogeneidad de varianzas** ❌## Decisión EstadísticaComo **NO se cumple el supuesto de homogeneidad**, los datos son considerados **NO PARAMÉTRICOS**. Por lo tanto, se aplicará la prueba de **Kruskal-Wallis**.## Prueba de Kruskal-Wallis**Hipótesis:**- H₀: No hay diferencias significativas entre los operadores- H₁: Sí hay diferencias significativas entre los operadores```{r}kruskal_result <-kruskal.test(PTERMINADO ~ OPERADORES, data = datos)print(kruskal_result)```**Interpretación:**Si p-valor \< 0.05: Se rechaza H₀, existen diferencias significativas entre operadores.## Conclusiones - Ejercicio 1### Verificación de Supuestos- ✅ **Normalidad:** Cumple (p-valor \> 0.05 en todos los operadores)- ✅ **Linealidad:** Cumple (los residuos estandarizados se alinean con la distribución normal)- ❌ **Homogeneidad de varianzas:** NO cumple (Prueba de Levene: p-valor \< 0.05)### Decisión MetodológicaDado que **NO se cumple el supuesto de homogeneidad de varianzas**, los datos se consideran **NO PARAMÉTRICOS**. Por lo tanto, se aplicó la prueba de **Kruskal-Wallis**.### Resultados de la Prueba de Kruskal-Wallis**Hipótesis planteada:**- H₀: No existen diferencias significativas en el producto terminado entre los operadores- H₁: Sí existen diferencias significativas en el producto terminado entre los operadores**Decisión estadística:**Con base en la prueba de Kruskal-Wallis y un nivel de significancia α = 0.05 (nivel de confianza del 95%):```{r}# Interpretación automática del resultadoif(kruskal_result$p.value <0.05) {cat("→ Se RECHAZA H₀\n")cat("→ p-valor =", round(kruskal_result$p.value, 4), "< 0.05\n\n")cat("CONCLUSIÓN: Existe evidencia estadística suficiente para afirmar que hay\n")cat("diferencias significativas en el producto terminado entre al menos dos\n")cat("operadores, con un nivel de confianza del 95%.\n")} else {cat("→ NO se rechaza H₀\n")cat("→ p-valor =", round(kruskal_result$p.value, 4), "> 0.05\n\n")cat("CONCLUSIÓN: No existe evidencia estadística suficiente para afirmar que\n")cat("hay diferencias significativas en el producto terminado entre los operadores,\n")cat("con un nivel de confianza del 95%.\n")}```### Interpretación Práctica- La variabilidad no homogénea entre operadores sugiere que algunos tienen mayor variabilidad en su producción que otros.- Si existen diferencias significativas, se recomienda realizar un análisis post-hoc no paramétrico (Dunn, Nemenyi) para identificar qué pares de operadores difieren específicamente.- La falta de homogeneidad de varianzas indica que algunos operadores pueden tener procesos menos estandarizados.------------------------------------------------------------------------# EJERCICIO 2: Análisis con data_15.4.xlsx## Carga de Datos```{r}#| warning: falsedatos2 <-read_excel("../MARKDOWN/data_15.4.xlsx")head(datos2)```## Verificación de Supuestos Paramétricos### 1. Normalidad```{r}# Pruebas de normalidad para cada operadordata1_2 <- datos2[datos2$OPERADORES %in%"1T", "PTERMINADO"]test1_2 <-lillie.test(data1_2$PTERMINADO)data2_2 <- datos2[datos2$OPERADORES %in%"2T", "PTERMINADO"]test2_2 <-lillie.test(data2_2$PTERMINADO)data3_2 <- datos2[datos2$OPERADORES %in%"3T", "PTERMINADO"]test3_2 <-lillie.test(data3_2$PTERMINADO)data4_2 <- datos2[datos2$OPERADORES %in%"4T", "PTERMINADO"]test4_2 <-lillie.test(data4_2$PTERMINADO)resultados_normalidad2 <-data.frame(Operador =c("1T", "2T", "3T", "4T"),P_Valor =c(test1_2$p.value, test2_2$p.value, test3_2$p.value, test4_2$p.value),Cumple =c(test1_2$p.value >0.05, test2_2$p.value >0.05, test3_2$p.value >0.05, test4_2$p.value >0.05))print(resultados_normalidad2)```**Conclusión:** Cumple normalidad ✅### 2. Linealidad (Q-Q Plot de Residuos)La linealidad se verifica mediante un gráfico Q-Q de los residuos estandarizados.```{r}#| label: fig-qq2#| fig-cap: "Q-Q Plot de residuos estandarizados - Ejercicio 2"#| fig-width: 8#| fig-height: 6#| echo: trueModeloLineal2 <-lm(PTERMINADO ~ OPERADORES, data = datos2)standarized2 <-rstudent(ModeloLineal2)par(bg ="white")qqnorm(standarized2, main ="Gráfico Q-Q de Residuos Estandarizados - Ejercicio 2",xlab ="Cuantiles Teóricos",ylab ="Residuos Estandarizados",col ="darkgreen",pch =19,cex =1.2)abline(0, 1, col ="red", lwd =3, lty =2)grid(col ="gray", lty ="dotted")```**Interpretación:** Los puntos se distribuyen cerca de la línea diagonal, confirmando linealidad.**Conclusión:** Cumple linealidad ✅### 3. Homogeneidad de Varianzas```{r}levene_result2 <-leveneTest(PTERMINADO ~ OPERADORES, data = datos2)print(levene_result2)```**Conclusión:** p-valor = 0.12 \> 0.05, **SÍ hay homogeneidad** ✅### 4. Homocedasticidad (Prueba de Breusch-Pagan)```{r}#| warning: falselibrary(lmtest)bp_result <-bptest(ModeloLineal2)print(bp_result)```**Conclusión:** p-valor \> 0.05, **SÍ hay homocedasticidad** ✅## Decisión EstadísticaComo **SÍ se cumplen TODOS los supuestos paramétricos**, se aplicará la prueba **ANOVA**.## Prueba ANOVA**Hipótesis:**- H₀: No hay diferencias significativas entre los operadores- H₁: Sí hay diferencias significativas entre los operadores```{r}anova_result <-aov(datos2$PTERMINADO ~ datos2$OPERADORES)summary(anova_result)```**Interpretación:** Si p-valor \< 0.05, existen diferencias significativas.## Análisis Post-Hoc: Prueba de TukeyPara identificar **qué pares de operadores difieren significativamente**:```{r}#| fig-cap: "Intervalos de confianza de Tukey HSD"tukey_result <-TukeyHSD(anova_result)print(tukey_result)plot(tukey_result, las =1, col ="blue")```## Comparaciones Múltiples (Bonferroni)```{r}pairwise_result <-pairwise.t.test(datos2$PTERMINADO, datos2$OPERADORES,paired =FALSE,var.equal =TRUE,p.adjust.method ="bonferroni")print(pairwise_result)```## Conclusiones - Ejercicio 2### Verificación de Supuestos- ✅ **Normalidad:** Cumple (p-valor \> 0.05 en todos los operadores)- ✅ **Linealidad:** Cumple (residuos estandarizados siguen patrón lineal)- ✅ **Homogeneidad de varianzas:** Cumple (Prueba de Levene: p-valor = 0.12 \> 0.05)- ✅ **Homocedasticidad:** Cumple (Prueba de Breusch-Pagan: p-valor \> 0.05)### Decisión MetodológicaComo **se cumplen TODOS los supuestos paramétricos**, se aplicó la prueba **ANOVA de un factor**.### Resultados de la Prueba ANOVA**Hipótesis planteada:**- H₀: Las medias del producto terminado son iguales entre todos los operadores (μ₁ = μ₂ = μ₃ = μ₄)- H₁: Al menos una media difiere de las demás**Decisión estadística:**```{r}# Extraer p-valor del ANOVAanova_summary <-summary(anova_result)p_valor_anova <- anova_summary[[1]][["Pr(>F)"]][1]# Interpretación automática del resultadocat("Con base en la prueba ANOVA y un nivel de significancia α = 0.05\n")cat("(nivel de confianza del 95%):\n\n")if(p_valor_anova <0.05) {cat("→ Se RECHAZA H₀\n")cat("→ p-valor =", round(p_valor_anova, 4), "< 0.05\n\n")cat("CONCLUSIÓN: Existe evidencia estadística suficiente para afirmar que al menos\n")cat("un operador presenta una media de producto terminado significativamente\n")cat("diferente a los demás, con un nivel de confianza del 95%.\n")} else {cat("→ NO se rechaza H₀\n")cat("→ p-valor =", round(p_valor_anova, 4), "> 0.05\n\n")cat("CONCLUSIÓN: No existe evidencia estadística suficiente para afirmar que\n")cat("las medias del producto terminado difieren entre los operadores, con un\n")cat("nivel de confianza del 95%.\n")}```### Análisis Post-Hoc (Prueba de Tukey HSD)```{r}if(p_valor_anova <0.05) {cat("\nComo se rechazó H₀ en ANOVA, procedemos con el análisis post-hoc:\n\n")cat("Interpretación de comparaciones por pares (Tukey HSD):\n")cat(paste(rep("=", 60), collapse=""), "\n\n")# Análisis de las comparaciones de Tukey comparaciones <-as.data.frame(tukey_result$`datos2$OPERADORES`) comparaciones$Comparacion <-rownames(comparaciones)for(i in1:nrow(comparaciones)) { comp <- comparaciones$Comparacion[i] p_val <- comparaciones$`p adj`[i]cat("Comparación:", comp, "\n")cat(" p-valor ajustado =", round(p_val, 4), "\n")if(p_val <0.05) {cat(" → Existe diferencia significativa entre estos operadores\n")cat(" → Los operadores", comp, "tienen medias significativamente diferentes\n")cat(" con un nivel de confianza del 95%.\n\n") } else {cat(" → No existe diferencia significativa\n")cat(" → No hay evidencia suficiente para afirmar que los operadores\n")cat(" ", comp, "difieren en su producto terminado promedio,\n")cat(" con un nivel de confianza del 95%.\n\n") } }} else {cat("\nComo no se rechazó H₀ en ANOVA, no es necesario realizar análisis post-hoc.\n")}```### Análisis de Comparaciones Múltiples (Bonferroni)El método de Bonferroni es más conservador que Tukey y controla mejor el error tipo I:```{r}cat("\nMétodo de Bonferroni (más conservador):\n")cat(paste(rep("=", 60), collapse=""), "\n\n")# Matriz de p-valores de Bonferronibonf_matrix <- pairwise_result$p.value# Imprimir interpretacióncat("Matriz de p-valores ajustados (Bonferroni):\n")print(round(bonf_matrix, 4))cat("\n\nInterpretación:\n")cat("- Valores < 0.05: Diferencia significativa\n")cat("- Valores > 0.05: No hay diferencia significativa\n")cat("- NA: No aplicable (misma comparación)\n")```------------------------------------------------------------------------# Conclusiones Generales## Comparación entre Ejercicios### Ejercicio 1 (data_15.xlsx)- ✅ Cumple normalidad y linealidad- ❌ NO cumple homogeneidad de varianzas- **Prueba aplicada:** Kruskal-Wallis (no paramétrica)- **Razón:** La falta de homogeneidad de varianzas viola supuestos paramétricos### Ejercicio 2 (data_15.4.xlsx)- ✅ Cumple todos los supuestos paramétricos- **Prueba aplicada:** ANOVA paramétrico- **Post-hoc:** Tukey HSD y comparaciones con corrección de Bonferroni- **Ventaja:** Mayor poder estadístico al usar métodos paramétricos## Recomendaciones Metodológicas### 1. Importancia de la Verificación de SupuestosLa verificación de supuestos es **crucial** antes de elegir la prueba estadística:- Una prueba paramétrica aplicada incorrectamente puede llevar a conclusiones erróneas- Las pruebas no paramétricas son más robustas cuando los supuestos no se cumplen- El nivel de confianza (generalmente 95% o α = 0.05) debe mantenerse consistente### 2. Interpretación de Resultados**Rechazar H₀** significa:- Hay evidencia estadística de diferencias- NO significa que todas las diferencias sean prácticas o relevantes- Se debe evaluar el tamaño del efecto y la significancia práctica**No rechazar H₀** significa:- No hay suficiente evidencia para afirmar diferencias- NO significa que las medias sean exactamente iguales- Puede deberse a falta de poder estadístico o tamaño de muestra insuficiente### 3. Selección de Pruebas Post-HocCuando ANOVA resulta significativo:- **Tukey HSD:** Recomendado cuando se comparan todos los pares posibles- **Bonferroni:** Más conservador, reduce el error tipo I pero aumenta el error tipo II- **Dunnett:** Cuando se compara contra un grupo control específico### 4. Consideraciones Prácticas- **Tamaño de muestra:** Muestras grandes pueden detectar diferencias triviales como significativas- **Significancia práctica vs. estadística:** Una diferencia puede ser estadísticamente significativa pero no importante en la práctica- **Contexto del problema:** Siempre interpretar resultados en el contexto del problema real## Limitaciones del Estudio1. Los resultados son válidos bajo el supuesto de muestreo aleatorio2. La generalización depende de la representatividad de la muestra3. Factores externos no controlados pueden influir en los resultados4. Las pruebas asumen independencia de observaciones## Recomendaciones Finales1. **Documentar siempre** la verificación de supuestos antes de elegir la prueba2. **Reportar** tanto la significancia estadística como la práctica3. **Considerar** el tamaño del efecto además del p-valor4. **Replicar** el estudio si es posible para confirmar resultados5. **Investigar** causas de diferencias encontradas, no solo reportarlas------------------------------------------------------------------------------------------------------------------------------------------------