| CORR | PTERMINADO | OPERADORES | |
|---|---|---|---|
| Min. : 1.0 | Min. :452.0 | Length:400 | |
| 1st Qu.:100.8 | 1st Qu.:637.5 | Class :character | |
| Median :200.5 | Median :747.0 | Mode :character | |
| Mean :200.5 | Mean :706.3 | NA | |
| 3rd Qu.:300.2 | 3rd Qu.:813.0 | NA | |
| Max. :400.0 | Max. :852.0 | NA |
Ejer_Clase Taller 03
1 TRABAJO EN CLASE (ANALISIS DE RESULTADOS)
Las pruebas paramétricas permiten realizar inferencias estadísticas eficientes, siempre que se cumplan ciertos supuestos básicos. Por ello, antes de su aplicación es fundamental verificar condiciones como la normalidad, linealidad, homogeneidad y homocedasticidad, las cuales aseguran la validez de los resultados.
1.1 EJERCICIOS 1
Una vez realizado un modelo de simulación con cuatro escenarios de producción (1 operador hasta 4 operadores),se registran las unidades producidas en 8h. Determinar si existe diferencia significativa entre los escenarios planteados
Ho = Los datos tiene un diferencia significativa entre los escenarios planteados
H1= Los datos no tienen una diferencia significativa entre los escerenarios planteados
En este ejercicio se analizara la comprobación de estos supuestos con el fin de determinar la pertinencia del uso de pruebas paramétricas y garantizar conclusiones estadísticas confiables.
Como primer paso, realizamos la evaluación de los supuestos fundamentales que deben cumplirse para aplicar pruebas paramétricaS
Cargamos los datos propuestos:
1.1.1 Verificación de supuestos
1.1.2 1. NORMALIDAD
Para verificar el supuesto de normalidad en muestras que presentan una sola variable dependiente, las pruebas típicas más empleadas son la prueba de Lilliefors con la la funcion lillie.test
Ho = La distribucion de los datos siguen una dristribucion normal
H1= La distribucion de los datos no siguen una dristribucion normal
Este paquete se utiliza para verificar el supuesto de normalidad, que es uno de los requisitos fundamentales de las pruebas paramétricas.
¿Por qué filtramos por grupos en el requisito de normalidad?
La verificación del supuesto de normalidad se realizó por grupos, ya que en las pruebas paramétricas la normalidad debe cumplirse dentro de cada población o categoría de análisis, y no sobre el conjunto total de datos
1.1.2.1 PARA FILTRAR GRUPO 1T
Lilliefors (Kolmogorov-Smirnov) normality test
data: data1$PTERMINADO
D = 0.062847, p-value = 0.4292
| Resultado del filtro del grupo 1T | |
|---|---|
| Criterio | Resultado |
| p-valor | 0.42 |
| Nivel de significancia (α) | 0.05 |
| Decisión | No se rechaza H₀ |
| Conclusión | Se cumple el supuesto de normalidad |
Dado que el p-valor obtenido (0.42) es mayor que el nivel de significancia (α = 0.05), no se rechaza la hipótesis nula. En consecuencia, se concluye que los datos cumplen con el supuesto de normalidad, lo que permite continuar con la aplicación de pruebas paramétricas.
1.1.2.2 PARA FILTRAR GRUPO 2T
Lilliefors (Kolmogorov-Smirnov) normality test
data: data2$PTERMINADO
D = 0.051383, p-value = 0.7438
| Resultado de la Prueba de Normalidad | |
|---|---|
| Grupo 2T – Prueba de Lilliefors | |
| Criterio | Resultado |
| Grupo | 2T |
| p-valor | 0.744 |
| Nivel de significancia (α) | 0.05 |
| Decisión | No se rechaza H₀ |
| Conclusión | Se cumple el supuesto de normalidad |
Con base en la prueba de Lilliefors aplicada al grupo 2T, el p-valor obtenido es mayor que el nivel de significancia (α = 0.05), por lo que no se rechaza la hipótesis nula. En consecuencia, se concluye que los datos del grupo 2T cumplen con el supuesto de normalidad, permitiendo la aplicación de pruebas paramétricas.
1.1.2.3 PARA FILTRAR GRUPO 3T
Lilliefors (Kolmogorov-Smirnov) normality test
data: data3$PTERMINADO
D = 0.05953, p-value = 0.5177
| Resultado de la Prueba de Normalidad | |
|---|---|
| Grupo 3T – Prueba de Lilliefors | |
| Criterio | Resultado |
| Grupo | 3T |
| p-valor | 0.518 |
| Nivel de significancia (α) | 0.05 |
| Decisión | No se rechaza H₀ |
| Conclusión | Se cumple el supuesto de normalidad |
De acuerdo con la prueba de Lilliefors aplicada al grupo 3T, el p-valor obtenido es mayor que el nivel de significancia (α = 0.05), por lo que no se rechaza la hipótesis nula. En consecuencia, se concluye que los datos del grupo 3T cumplen con el supuesto de normalidad, permitiendo la aplicación de pruebas paramétricas.
1.1.2.4 PARA FILTRAR GRUPO 4T
Lilliefors (Kolmogorov-Smirnov) normality test
data: data4$PTERMINADO
D = 0.070594, p-value = 0.2544
| Resultado de la Prueba de Normalidad | |
|---|---|
| Grupo 4T – Prueba de Lilliefors | |
| Criterio | Resultado |
| Grupo | 4T |
| p-valor | 0.254 |
| Nivel de significancia (α) | 0.05 |
| Decisión | No se rechaza H₀ |
| Conclusión | Se cumple el supuesto de normalidad |
De acuerdo con la prueba de Lilliefors aplicada al grupo 4T, el p-valor obtenido es mayor que el nivel de significancia (α = 0.05), por lo que no se rechaza la hipótesis nula. En consecuencia, se concluye que los datos del grupo 4T cumplen con el supuesto de normalidad y es adecuado continuar con la aplicación de pruebas paramétricas.
1.1.2.5 Analisis general
Los resultados de la prueba de Lilliefors aplicados a los cuatro grupos analizados (1T, 2T, 3T y 4T) muestran que, en todos los casos, el p-valor es mayor que el nivel de significancia (α = 0.05), por lo que no se rechaza la hipótesis nula. En consecuencia, se concluye que las variables analizadas cumplen con el supuesto de normalidad dentro de cada grupo, lo que valida el uso de pruebas paramétricas para el análisis estadístico posterior.
1.1.3 2. LINEALIDAD
El Q-Q Plot permite evaluar la linealidad de los datos al comparar los cuantiles observados con los cuantiles teóricos de una distribución normal. Cuando los puntos se alinean aproximadamente en una recta.
El codigo ModeloLineal sirve para comparar visualmente que tan alineados entan los puntos respectos ala normalidad teorica
El Q-Q Plot de los residuos estandarizados muestra que los puntos se distribuyen de manera aproximadamente lineal alrededor de la línea teórica, especialmente dentro del rango de −2 a +2. Esto indica que los residuos del modelo presentan un comportamiento cercano a la normalidad, por lo que se considera que el supuesto de linealidad y normalidad de los errores se cumple adecuadamente para el modelo ajustado.
1.1.4 3. HOMOGENEIDAD
Entonces, la homogeneidad también llamada prueba de igualdad de varianzas, permite verificar que la varianza de los grupos existentes en la muestra se mantenga en rangos similares, permitiendo de esta manera garantizar homogeneidad entre las funciones de densidad de los subgrupos existentes en la muestra.
Ho = Las variables de los grupos son iguales (homogeneidad)
H1= Las variables de los grupos son diferentes (no homogeneidad)
Levene's Test for Homogeneity of Variance (center = median)
Df F value Pr(>F)
group 3 16.86 2.515e-10 ***
396
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
| Prueba de Levene para Homogeneidad de Varianzas | |
|---|---|
| Criterio | Resultado |
| Estadístico F | 16.86 |
| Grados de libertad (grupo) | 3 |
| Grados de libertad (residual) | 396 |
| p-valor | 2.52e-10 |
| Decisión | Se rechaza H₀ |
| Conclusión | No se cumple la homogeneidad de varianzas |
Con base en los resultados de la prueba de Levene, el p-valor obtenido es menor que el nivel de significancia (α = 0.05), por lo que se rechaza la hipótesis nula. En consecuencia, se concluye que no se cumple el supuesto de homogeneidad de varianzas entre los grupos analizados
Dado que se rechaza H0 no hay homogeneidad se hace una prueba no parametrica KRUSKAL WALLIS
1.1.5 KRUSKAL WALLIS
La prueba de Kruskal-Wallis es una prueba estadística no paramétrica que se utiliza para comparar tres o más grupos independientes, cuando no se cumplen los supuestos de las pruebas paramétricas, especialmente normalidad u homogeneidad de varianzas.
Kruskal-Wallis rank sum test
data: PTERMINADO by OPERADORES
Kruskal-Wallis chi-squared = 354.78, df = 3, p-value < 2.2e-16
| Prueba de Kruskal-Wallis | |
|---|---|
| Comparación de PTERMINADO entre OPERADORES | |
| Criterio | Resultado |
| Estadístico H (Chi-cuadrado) | 354.776 |
| Grados de libertad | 3 |
| p-valor | <2e-16 |
| Decisión | Se rechaza H₀ |
| Conclusión | Existen diferencias significativas entre los grupos |
1.1.6 CONCLUSIÓN
Se rechaza la hipótesis nula, ya que los resultados de la prueba de Kruskal-Wallis muestran evidencia estadística suficiente para afirmar que existen diferencias significativas entre los grupos analizados, al considerar un nivel de confianza del 95%.
1.2 EJERCICIOS 2
Una vez realizado un modelo de simulación con cuatro escenarios de producción (1 operador hasta 4 operadores),se registran las unidades producidas en 8h. Determinar si existe diferencia significativa entre los escenarios planteados
Ho = Los datos tiene un diferencia significativa entre los escenarios planteados
H1= Los datos no tienen una diferencia significativa entre los escerenarios planteados
En este ejercicio se analizara la comprobación de estos supuestos con el fin de determinar la pertinencia del uso de pruebas paramétricas y garantizar conclusiones estadísticas confiables.
Como primer paso, realizamos la evaluación de los supuestos fundamentales que deben cumplirse para aplicar pruebas paramétricaS
Cargamos los datos propuestos:
CORR PTERMINADO OPERADORES
Min. : 1.0 Min. :460.0 Length:400
1st Qu.:100.8 1st Qu.:620.0 Class :character
Median :200.5 Median :751.5 Mode :character
Mean :200.5 Mean :700.5
3rd Qu.:300.2 3rd Qu.:799.2
Max. :400.0 Max. :857.0
1.2.1 Verificación de supuestos
1.2.2 1. NORMALIDAD
Para verificar el supuesto de normalidad en muestras que presentan una sola variable dependiente, las pruebas típicas más empleadas son la prueba de Lilliefors con la la funcion lillie.test
Ho = La distribucion de los datos siguen una dristribucion normal
H1= La distribucion de los datos no siguen una dristribucion normal
Este paquete se utiliza para verificar el supuesto de normalidad, que es uno de los requisitos fundamentales de las pruebas paramétricas.
¿Por qué filtramos por grupos en el requisito de normalidad?
La verificación del supuesto de normalidad se realizó por grupos, ya que en las pruebas paramétricas la normalidad debe cumplirse dentro de cada población o categoría de análisis, y no sobre el conjunto total de datos
1.2.2.1 PARA FILTRAR GRUPO 1T
Lilliefors (Kolmogorov-Smirnov) normality test
data: data1$PTERMINADO
D = 0.054539, p-value = 0.6574
| Resultado de la Prueba de Lilliefors (Normalidad) | |
|---|---|
| Grupo 1T - PTERMINADO | |
| Criterio | Resultado |
| p-valor | 0.657 |
| Nivel de significancia (α) | 0.05 |
| Decisión | No se rechaza H₀ |
| Conclusión | Se cumple el supuesto de normalidad |
Según los resultados obtenidos en el código de la prueba de Lilliefors para el grupo 1T, el p-valor calculado es mayor que el nivel de significancia (α = 0.05). Por tanto, no se rechaza la hipótesis nula, lo que indica que los datos del grupo 1T presentan un comportamiento compatible con una distribución normal y cumplen el supuesto de normalidad requerido para pruebas paramétricas.
1.2.2.2 PARA FILTRAR GRUPO 2T
Lilliefors (Kolmogorov-Smirnov) normality test
data: data2$PTERMINADO
D = 0.072634, p-value = 0.2178
| Resultado de la Prueba de Lilliefors (Normalidad) | |
|---|---|
| Grupo 2T - PTERMINADO | |
| Criterio | Resultado |
| p-valor | 0.218 |
| Nivel de significancia (α) | 0.05 |
| Decisión | No se rechaza H₀ |
| Conclusión | Se cumple el supuesto de normalidad |
De acuerdo con los resultados obtenidos en el código de la prueba de Lilliefors aplicado al grupo 2T, el p-valor calculado es mayor que el nivel de significancia (α = 0.05). Por lo tanto, no se rechaza la hipótesis nula, lo que indica que los datos del grupo 2T presentan un comportamiento compatible con una distribución normal y cumplen el supuesto de normalidad.
1.2.2.3 PARA FILTRAR GRUPO 3T
Lilliefors (Kolmogorov-Smirnov) normality test
data: data3$PTERMINADO
D = 0.048882, p-value = 0.8061
| Resultado de la Prueba de Lilliefors (Normalidad) | |
|---|---|
| Grupo 3T - PTERMINADO | |
| Criterio | Resultado |
| p-valor | 0.806 |
| Nivel de significancia (α) | 0.05 |
| Decisión | No se rechaza H₀ |
| Conclusión | Se cumple el supuesto de normalidad |
De acuerdo con los resultados obtenidos en el código de la prueba de Lilliefors aplicada al grupo 3T, el p-valor calculado es mayor que el nivel de significancia (α = 0.05). Por lo tanto, no se rechaza la hipótesis nula, lo que indica que los datos del grupo 3T presentan un comportamiento compatible con una distribución normal y cumplen el supuesto de normalidad.
1.2.2.4 PARA FILTRAR GRUPO 4T
Lilliefors (Kolmogorov-Smirnov) normality test
data: data4$PTERMINADO
D = 0.058951, p-value = 0.5337
| Resultado de la Prueba de Lilliefors (Normalidad) | |
|---|---|
| Grupo 4T - PTERMINADO | |
| Criterio | Resultado |
| p-valor | 0.534 |
| Nivel de significancia (α) | 0.05 |
| Decisión | No se rechaza H₀ |
| Conclusión | Se cumple el supuesto de normalidad |
De acuerdo con los resultados obtenidos en el código de la prueba de Lilliefors aplicada al grupo 4T, el p-valor calculado es mayor que el nivel de significancia (α = 0.05).
1.2.3 2. LINEALIDAD
El Q-Q Plot permite evaluar la linealidad de los datos al comparar los cuantiles observados con los cuantiles teóricos de una distribución normal. Cuando los puntos se alinean aproximadamente en una recta.
El codigo ModeloLineal sirve para comparar visualmente que tan alineados entan los puntos respectos a la normalidad teorica
El Q-Q Plot de los residuos estandarizados muestra que los puntos se distribuyen de manera aproximadamente lineal alrededor de la línea teórica, especialmente dentro del rango de −2 a +2. Esto indica que los residuos del modelo presentan un comportamiento cercano a la normalidad, por lo que se considera que el supuesto de linealidad y normalidad de los errores se cumple adecuadamente para el modelo ajustado.
1.2.4 3. HOMOGENIEDAD
Entonces, la homogeneidad también llamada prueba de igualdad de varianzas, permite verificar que la varianza de los grupos existentes en la muestra se mantenga en rangos similares, permitiendo de esta manera garantizar homogeneidad entre las funciones de densidad de los subgrupos existentes en la muestra.
Ho = Las variables de los grupos son iguales (homogeneidad)
H1= Las variables de los grupos son diferentes (no homogeneidad)
Levene's Test for Homogeneity of Variance (center = median)
Df F value Pr(>F)
group 3 1.9276 0.1245
396
| Prueba de Levene | |
|---|---|
| Homogeneidad de varianzas para PTERMINADO según OPERADORES | |
| Criterio | Resultado |
| Estadístico F | 1.928 |
| Grados de libertad | 3 , 396 |
| p-valor | 0.125 |
| Nivel de significancia (α) | 0.05 |
| Decisión | No se rechaza H₀ |
| Conclusión | Se cumple la homogeneidad de varianzas |
Con base en los resultados obtenidos en la prueba de Levene aplicada a la variable PTERMINADO según OPERADORES, el p-valor calculado es menor que el nivel de significancia (α = 0.05). Por lo tanto, se rechaza la hipótesis nula
Con estos resultados obtenidos en que si tiene homogeneidad y podemos seguir con la verificacion de si los datos son parametricos:
1.2.5 4. HOMOCEDASTICIDAD
studentized Breusch-Pagan test
data: ModeloLineal
BP = 8.044, df = 3, p-value = 0.04511
| Prueba de Breusch–Pagan | |
|---|---|
| Evaluación de homoscedasticidad del modelo lineal | |
| Criterio | Resultado |
| Estadístico BP | 8.044 |
| Grados de libertad | 3 |
| p-valor | 0.0451 |
| Nivel de significancia (α) | 0.05 |
| Decisión | Se rechaza H₀ |
| Conclusión | No se cumple el supuesto de homoscedasticidad |
A partir de la verificación de los supuestos estadísticos —normalidad, linealidad y homoscedasticidad— se determina que los datos analizados cumplen con los criterios necesarios para la aplicación de pruebas paramétricas. En consecuencia, se procedió a realizar un análisis utilizamos la pueba anova con el objetivo de identificar de manera específica entre qué grupos existen diferencias estadísticamente significativas en la variable PTERMINADO. Este análisis complementario permite una interpretación más detallada y precisa de los resultados obtenidos.
Ante la verificacion de que si cumpe los parametros para verificar los supuestos aplicamos esta nueva prueba para mas exactitud de la desición final
1.2.6 PRUEBA ANOVA
La prueba ANOVA (Análisis de Varianza) es un método estadístico que se utiliza para comparar las medias de tres o más grupos y determinar si existen diferencias estadísticamente significativas entre ellos. Se emplea cuando los datos cumplen los supuestos de normalidad, homogeneidad de varianzas e independencia, ya que permite evaluar de forma conjunta si al menos un grupo difiere de los demás, evitando realizar múltiples comparaciones individuales que aumentarían el error estadístico.
Df Sum Sq Mean Sq F value Pr(>F)
datos$OPERADORES 3 6035072 2011691 4659 <2e-16 ***
Residuals 396 170990 432
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
| Análisis de Varianza (ANOVA) | |||||
|---|---|---|---|---|---|
| Comparación de PTERMINADO según OPERADORES | |||||
| Fuente_de_variación | Grados_de_libertad | Suma_de_cuadrados | Cuadrado_medio | Estadístico.F | p.valor |
| Entre grupos (OPERADORES) | 3 | 6035071.8 | 2011690.593 | 4658.918 | <2e-16 |
| Dentro de grupos (Error) | 396 | 170990.2 | 431.793 | - | - |
| Total | 399 | 6206062.0 | - | - | - |
Se rechaza la hipótesis nula Ho, y los resultados aportan evidencia estadística suficiente para afirmar que sí existen diferencias significativas entre los datos, considerando un nivel de confianza del 95%.
El gráfico de la prueba post-hoc de Tukey HSD representa las diferencias de medias de la variable PTERMINADO entre los distintos operadores, junto con sus intervalos de confianza al 95%. La línea vertical en cero indica ausencia de diferencia; por tanto, las comparaciones cuyos intervalos no cruzan este valor evidencian diferencias estadísticamente significativas, mientras que las que lo intersectan no muestran diferencias relevantes. Este gráfico complementa el ANOVA al identificar de manera clara entre qué grupos se presentan dichas diferencias.
2 CUADRO COMPARATIVO
| Cuadro comparativo de verificación de supuestos | ||
|---|---|---|
| Resultados numéricos por ejercicio | ||
| Supuesto | Ejercicio.1 | Ejercicio.2 |
| Normalidad (Lilliefors) | p = 0.42 → Cumple | p > 0.05 → Cumple |
| Linealidad (Q-Q Plot) | Alineación adecuada → Cumple | Alineación adecuada → Cumple |
| Homogeneidad de varianzas (Levene) | p < 0.05 → No cumple | p > 0.05 → Cumple |
| Homoscedasticidad (Breusch-Pagan) | p > 0.05 → Cumple | p > 0.05 → Cumple |
| Prueba estadística aplicada | Kruskal-Wallis | ANOVA + Tukey / t-test |