Ejer_Clase Taller 03

Autor/a

Alexis Cedeño

1 TRABAJO EN CLASE (ANALISIS DE RESULTADOS)

Las pruebas paramétricas permiten realizar inferencias estadísticas eficientes, siempre que se cumplan ciertos supuestos básicos. Por ello, antes de su aplicación es fundamental verificar condiciones como la normalidad, linealidad, homogeneidad y homocedasticidad, las cuales aseguran la validez de los resultados.

1.1 EJERCICIOS 1

Una vez realizado un modelo de simulación con cuatro escenarios de producción (1 operador hasta 4 operadores),se registran las unidades producidas en 8h. Determinar si existe diferencia significativa entre los escenarios planteados

Ho = Los datos tiene un diferencia significativa entre los escenarios planteados

H1= Los datos no tienen una diferencia significativa entre los escerenarios planteados

En este ejercicio se analizara la comprobación de estos supuestos con el fin de determinar la pertinencia del uso de pruebas paramétricas y garantizar conclusiones estadísticas confiables.

Como primer paso, realizamos la evaluación de los supuestos fundamentales que deben cumplirse para aplicar pruebas paramétricaS

Cargamos los datos propuestos:

CORR PTERMINADO OPERADORES
Min. : 1.0 Min. :452.0 Length:400
1st Qu.:100.8 1st Qu.:637.5 Class :character
Median :200.5 Median :747.0 Mode :character
Mean :200.5 Mean :706.3 NA
3rd Qu.:300.2 3rd Qu.:813.0 NA
Max. :400.0 Max. :852.0 NA

1.1.1 Verificación de supuestos

1.1.2 1. NORMALIDAD

Para verificar el supuesto de normalidad en muestras que presentan una sola variable dependiente, las pruebas típicas más empleadas son la prueba de Lilliefors con la la funcion lillie.test

Ho = La distribucion de los datos siguen una dristribucion normal

H1= La distribucion de los datos no siguen una dristribucion normal

Este paquete se utiliza para verificar el supuesto de normalidad, que es uno de los requisitos fundamentales de las pruebas paramétricas.

¿Por qué filtramos por grupos en el requisito de normalidad?

La verificación del supuesto de normalidad se realizó por grupos, ya que en las pruebas paramétricas la normalidad debe cumplirse dentro de cada población o categoría de análisis, y no sobre el conjunto total de datos

1.1.2.1 PARA FILTRAR GRUPO 1T


    Lilliefors (Kolmogorov-Smirnov) normality test

data:  data1$PTERMINADO
D = 0.062847, p-value = 0.4292
Resultado del filtro del grupo 1T
Criterio Resultado
p-valor 0.42
Nivel de significancia (α) 0.05
Decisión No se rechaza H₀
Conclusión Se cumple el supuesto de normalidad

Dado que el p-valor obtenido (0.42) es mayor que el nivel de significancia (α = 0.05), no se rechaza la hipótesis nula. En consecuencia, se concluye que los datos cumplen con el supuesto de normalidad, lo que permite continuar con la aplicación de pruebas paramétricas.

1.1.2.2 PARA FILTRAR GRUPO 2T


    Lilliefors (Kolmogorov-Smirnov) normality test

data:  data2$PTERMINADO
D = 0.051383, p-value = 0.7438
Resultado de la Prueba de Normalidad
Grupo 2T – Prueba de Lilliefors
Criterio Resultado
Grupo 2T
p-valor 0.744
Nivel de significancia (α) 0.05
Decisión No se rechaza H₀
Conclusión Se cumple el supuesto de normalidad

Con base en la prueba de Lilliefors aplicada al grupo 2T, el p-valor obtenido es mayor que el nivel de significancia (α = 0.05), por lo que no se rechaza la hipótesis nula. En consecuencia, se concluye que los datos del grupo 2T cumplen con el supuesto de normalidad, permitiendo la aplicación de pruebas paramétricas.

1.1.2.3 PARA FILTRAR GRUPO 3T


    Lilliefors (Kolmogorov-Smirnov) normality test

data:  data3$PTERMINADO
D = 0.05953, p-value = 0.5177
Resultado de la Prueba de Normalidad
Grupo 3T – Prueba de Lilliefors
Criterio Resultado
Grupo 3T
p-valor 0.518
Nivel de significancia (α) 0.05
Decisión No se rechaza H₀
Conclusión Se cumple el supuesto de normalidad

De acuerdo con la prueba de Lilliefors aplicada al grupo 3T, el p-valor obtenido es mayor que el nivel de significancia (α = 0.05), por lo que no se rechaza la hipótesis nula. En consecuencia, se concluye que los datos del grupo 3T cumplen con el supuesto de normalidad, permitiendo la aplicación de pruebas paramétricas.

1.1.2.4 PARA FILTRAR GRUPO 4T


    Lilliefors (Kolmogorov-Smirnov) normality test

data:  data4$PTERMINADO
D = 0.070594, p-value = 0.2544
Resultado de la Prueba de Normalidad
Grupo 4T – Prueba de Lilliefors
Criterio Resultado
Grupo 4T
p-valor 0.254
Nivel de significancia (α) 0.05
Decisión No se rechaza H₀
Conclusión Se cumple el supuesto de normalidad

De acuerdo con la prueba de Lilliefors aplicada al grupo 4T, el p-valor obtenido es mayor que el nivel de significancia (α = 0.05), por lo que no se rechaza la hipótesis nula. En consecuencia, se concluye que los datos del grupo 4T cumplen con el supuesto de normalidad y es adecuado continuar con la aplicación de pruebas paramétricas.

1.1.2.5 Analisis general

Los resultados de la prueba de Lilliefors aplicados a los cuatro grupos analizados (1T, 2T, 3T y 4T) muestran que, en todos los casos, el p-valor es mayor que el nivel de significancia (α = 0.05), por lo que no se rechaza la hipótesis nula. En consecuencia, se concluye que las variables analizadas cumplen con el supuesto de normalidad dentro de cada grupo, lo que valida el uso de pruebas paramétricas para el análisis estadístico posterior.

1.1.3 2. LINEALIDAD

El Q-Q Plot permite evaluar la linealidad de los datos al comparar los cuantiles observados con los cuantiles teóricos de una distribución normal. Cuando los puntos se alinean aproximadamente en una recta.

El codigo ModeloLineal sirve para comparar visualmente que tan alineados entan los puntos respectos ala normalidad teorica

El Q-Q Plot de los residuos estandarizados muestra que los puntos se distribuyen de manera aproximadamente lineal alrededor de la línea teórica, especialmente dentro del rango de −2 a +2. Esto indica que los residuos del modelo presentan un comportamiento cercano a la normalidad, por lo que se considera que el supuesto de linealidad y normalidad de los errores se cumple adecuadamente para el modelo ajustado.

1.1.4 3. HOMOGENEIDAD

Entonces, la homogeneidad también llamada prueba de igualdad de varianzas, permite verificar que la varianza de los grupos existentes en la muestra se mantenga en rangos similares, permitiendo de esta manera garantizar homogeneidad entre las funciones de densidad de los subgrupos existentes en la muestra.

Ho = Las variables de los grupos son iguales (homogeneidad)

H1= Las variables de los grupos son diferentes (no homogeneidad)

Levene's Test for Homogeneity of Variance (center = median)
       Df F value    Pr(>F)    
group   3   16.86 2.515e-10 ***
      396                      
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Prueba de Levene para Homogeneidad de Varianzas
Criterio Resultado
Estadístico F 16.86
Grados de libertad (grupo) 3
Grados de libertad (residual) 396
p-valor 2.52e-10
Decisión Se rechaza H₀
Conclusión No se cumple la homogeneidad de varianzas

Con base en los resultados de la prueba de Levene, el p-valor obtenido es menor que el nivel de significancia (α = 0.05), por lo que se rechaza la hipótesis nula. En consecuencia, se concluye que no se cumple el supuesto de homogeneidad de varianzas entre los grupos analizados

Dado que se rechaza H0 no hay homogeneidad se hace una prueba no parametrica KRUSKAL WALLIS

1.1.5 KRUSKAL WALLIS

La prueba de Kruskal-Wallis es una prueba estadística no paramétrica que se utiliza para comparar tres o más grupos independientes, cuando no se cumplen los supuestos de las pruebas paramétricas, especialmente normalidad u homogeneidad de varianzas.


    Kruskal-Wallis rank sum test

data:  PTERMINADO by OPERADORES
Kruskal-Wallis chi-squared = 354.78, df = 3, p-value < 2.2e-16
Prueba de Kruskal-Wallis
Comparación de PTERMINADO entre OPERADORES
Criterio Resultado
Estadístico H (Chi-cuadrado) 354.776
Grados de libertad 3
p-valor <2e-16
Decisión Se rechaza H₀
Conclusión Existen diferencias significativas entre los grupos

1.1.6 CONCLUSIÓN

Se rechaza la hipótesis nula, ya que los resultados de la prueba de Kruskal-Wallis muestran evidencia estadística suficiente para afirmar que existen diferencias significativas entre los grupos analizados, al considerar un nivel de confianza del 95%.

1.2 EJERCICIOS 2

Una vez realizado un modelo de simulación con cuatro escenarios de producción (1 operador hasta 4 operadores),se registran las unidades producidas en 8h. Determinar si existe diferencia significativa entre los escenarios planteados

Ho = Los datos tiene un diferencia significativa entre los escenarios planteados

H1= Los datos no tienen una diferencia significativa entre los escerenarios planteados

En este ejercicio se analizara la comprobación de estos supuestos con el fin de determinar la pertinencia del uso de pruebas paramétricas y garantizar conclusiones estadísticas confiables.

Como primer paso, realizamos la evaluación de los supuestos fundamentales que deben cumplirse para aplicar pruebas paramétricaS

Cargamos los datos propuestos:

      CORR         PTERMINADO     OPERADORES       
 Min.   :  1.0   Min.   :460.0   Length:400        
 1st Qu.:100.8   1st Qu.:620.0   Class :character  
 Median :200.5   Median :751.5   Mode  :character  
 Mean   :200.5   Mean   :700.5                     
 3rd Qu.:300.2   3rd Qu.:799.2                     
 Max.   :400.0   Max.   :857.0                     

1.2.1 Verificación de supuestos

1.2.2 1. NORMALIDAD

Para verificar el supuesto de normalidad en muestras que presentan una sola variable dependiente, las pruebas típicas más empleadas son la prueba de Lilliefors con la la funcion lillie.test

Ho = La distribucion de los datos siguen una dristribucion normal

H1= La distribucion de los datos no siguen una dristribucion normal

Este paquete se utiliza para verificar el supuesto de normalidad, que es uno de los requisitos fundamentales de las pruebas paramétricas.

¿Por qué filtramos por grupos en el requisito de normalidad?

La verificación del supuesto de normalidad se realizó por grupos, ya que en las pruebas paramétricas la normalidad debe cumplirse dentro de cada población o categoría de análisis, y no sobre el conjunto total de datos

1.2.2.1 PARA FILTRAR GRUPO 1T


    Lilliefors (Kolmogorov-Smirnov) normality test

data:  data1$PTERMINADO
D = 0.054539, p-value = 0.6574
Resultado de la Prueba de Lilliefors (Normalidad)
Grupo 1T - PTERMINADO
Criterio Resultado
p-valor 0.657
Nivel de significancia (α) 0.05
Decisión No se rechaza H₀
Conclusión Se cumple el supuesto de normalidad

Según los resultados obtenidos en el código de la prueba de Lilliefors para el grupo 1T, el p-valor calculado es mayor que el nivel de significancia (α = 0.05). Por tanto, no se rechaza la hipótesis nula, lo que indica que los datos del grupo 1T presentan un comportamiento compatible con una distribución normal y cumplen el supuesto de normalidad requerido para pruebas paramétricas.

1.2.2.2 PARA FILTRAR GRUPO 2T


    Lilliefors (Kolmogorov-Smirnov) normality test

data:  data2$PTERMINADO
D = 0.072634, p-value = 0.2178
Resultado de la Prueba de Lilliefors (Normalidad)
Grupo 2T - PTERMINADO
Criterio Resultado
p-valor 0.218
Nivel de significancia (α) 0.05
Decisión No se rechaza H₀
Conclusión Se cumple el supuesto de normalidad

De acuerdo con los resultados obtenidos en el código de la prueba de Lilliefors aplicado al grupo 2T, el p-valor calculado es mayor que el nivel de significancia (α = 0.05). Por lo tanto, no se rechaza la hipótesis nula, lo que indica que los datos del grupo 2T presentan un comportamiento compatible con una distribución normal y cumplen el supuesto de normalidad.

1.2.2.3 PARA FILTRAR GRUPO 3T


    Lilliefors (Kolmogorov-Smirnov) normality test

data:  data3$PTERMINADO
D = 0.048882, p-value = 0.8061
Resultado de la Prueba de Lilliefors (Normalidad)
Grupo 3T - PTERMINADO
Criterio Resultado
p-valor 0.806
Nivel de significancia (α) 0.05
Decisión No se rechaza H₀
Conclusión Se cumple el supuesto de normalidad

De acuerdo con los resultados obtenidos en el código de la prueba de Lilliefors aplicada al grupo 3T, el p-valor calculado es mayor que el nivel de significancia (α = 0.05). Por lo tanto, no se rechaza la hipótesis nula, lo que indica que los datos del grupo 3T presentan un comportamiento compatible con una distribución normal y cumplen el supuesto de normalidad.

1.2.2.4 PARA FILTRAR GRUPO 4T


    Lilliefors (Kolmogorov-Smirnov) normality test

data:  data4$PTERMINADO
D = 0.058951, p-value = 0.5337
Resultado de la Prueba de Lilliefors (Normalidad)
Grupo 4T - PTERMINADO
Criterio Resultado
p-valor 0.534
Nivel de significancia (α) 0.05
Decisión No se rechaza H₀
Conclusión Se cumple el supuesto de normalidad

De acuerdo con los resultados obtenidos en el código de la prueba de Lilliefors aplicada al grupo 4T, el p-valor calculado es mayor que el nivel de significancia (α = 0.05).

1.2.3 2. LINEALIDAD

El Q-Q Plot permite evaluar la linealidad de los datos al comparar los cuantiles observados con los cuantiles teóricos de una distribución normal. Cuando los puntos se alinean aproximadamente en una recta.

El codigo ModeloLineal sirve para comparar visualmente que tan alineados entan los puntos respectos a la normalidad teorica

El Q-Q Plot de los residuos estandarizados muestra que los puntos se distribuyen de manera aproximadamente lineal alrededor de la línea teórica, especialmente dentro del rango de −2 a +2. Esto indica que los residuos del modelo presentan un comportamiento cercano a la normalidad, por lo que se considera que el supuesto de linealidad y normalidad de los errores se cumple adecuadamente para el modelo ajustado.

1.2.4 3. HOMOGENIEDAD

Entonces, la homogeneidad también llamada prueba de igualdad de varianzas, permite verificar que la varianza de los grupos existentes en la muestra se mantenga en rangos similares, permitiendo de esta manera garantizar homogeneidad entre las funciones de densidad de los subgrupos existentes en la muestra.

Ho = Las variables de los grupos son iguales (homogeneidad)

H1= Las variables de los grupos son diferentes (no homogeneidad)

Levene's Test for Homogeneity of Variance (center = median)
       Df F value Pr(>F)
group   3  1.9276 0.1245
      396               
Prueba de Levene
Homogeneidad de varianzas para PTERMINADO según OPERADORES
Criterio Resultado
Estadístico F 1.928
Grados de libertad 3 , 396
p-valor 0.125
Nivel de significancia (α) 0.05
Decisión No se rechaza H₀
Conclusión Se cumple la homogeneidad de varianzas

Con base en los resultados obtenidos en la prueba de Levene aplicada a la variable PTERMINADO según OPERADORES, el p-valor calculado es menor que el nivel de significancia (α = 0.05). Por lo tanto, se rechaza la hipótesis nula

Con estos resultados obtenidos en que si tiene homogeneidad y podemos seguir con la verificacion de si los datos son parametricos:

1.2.5 4. HOMOCEDASTICIDAD


    studentized Breusch-Pagan test

data:  ModeloLineal
BP = 8.044, df = 3, p-value = 0.04511
Prueba de Breusch–Pagan
Evaluación de homoscedasticidad del modelo lineal
Criterio Resultado
Estadístico BP 8.044
Grados de libertad 3
p-valor 0.0451
Nivel de significancia (α) 0.05
Decisión Se rechaza H₀
Conclusión No se cumple el supuesto de homoscedasticidad

A partir de la verificación de los supuestos estadísticos —normalidad, linealidad y homoscedasticidad— se determina que los datos analizados cumplen con los criterios necesarios para la aplicación de pruebas paramétricas. En consecuencia, se procedió a realizar un análisis utilizamos la pueba anova con el objetivo de identificar de manera específica entre qué grupos existen diferencias estadísticamente significativas en la variable PTERMINADO. Este análisis complementario permite una interpretación más detallada y precisa de los resultados obtenidos.

Ante la verificacion de que si cumpe los parametros para verificar los supuestos aplicamos esta nueva prueba para mas exactitud de la desición final

1.2.6 PRUEBA ANOVA

La prueba ANOVA (Análisis de Varianza) es un método estadístico que se utiliza para comparar las medias de tres o más grupos y determinar si existen diferencias estadísticamente significativas entre ellos. Se emplea cuando los datos cumplen los supuestos de normalidad, homogeneidad de varianzas e independencia, ya que permite evaluar de forma conjunta si al menos un grupo difiere de los demás, evitando realizar múltiples comparaciones individuales que aumentarían el error estadístico.

                  Df  Sum Sq Mean Sq F value Pr(>F)    
datos$OPERADORES   3 6035072 2011691    4659 <2e-16 ***
Residuals        396  170990     432                   
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Análisis de Varianza (ANOVA)
Comparación de PTERMINADO según OPERADORES
Fuente_de_variación Grados_de_libertad Suma_de_cuadrados Cuadrado_medio Estadístico.F p.valor
Entre grupos (OPERADORES) 3 6035071.8 2011690.593 4658.918 <2e-16
Dentro de grupos (Error) 396 170990.2 431.793 - -
Total 399 6206062.0 - - -

Se rechaza la hipótesis nula Ho, y los resultados aportan evidencia estadística suficiente para afirmar que sí existen diferencias significativas entre los datos, considerando un nivel de confianza del 95%.

El gráfico de la prueba post-hoc de Tukey HSD representa las diferencias de medias de la variable PTERMINADO entre los distintos operadores, junto con sus intervalos de confianza al 95%. La línea vertical en cero indica ausencia de diferencia; por tanto, las comparaciones cuyos intervalos no cruzan este valor evidencian diferencias estadísticamente significativas, mientras que las que lo intersectan no muestran diferencias relevantes. Este gráfico complementa el ANOVA al identificar de manera clara entre qué grupos se presentan dichas diferencias.

2 CUADRO COMPARATIVO

Cuadro comparativo de verificación de supuestos
Resultados numéricos por ejercicio
Supuesto Ejercicio.1 Ejercicio.2
Normalidad (Lilliefors) p = 0.42 → Cumple p > 0.05 → Cumple
Linealidad (Q-Q Plot) Alineación adecuada → Cumple Alineación adecuada → Cumple
Homogeneidad de varianzas (Levene) p < 0.05 → No cumple p > 0.05 → Cumple
Homoscedasticidad (Breusch-Pagan) p > 0.05 → Cumple p > 0.05 → Cumple
Prueba estadística aplicada Kruskal-Wallis ANOVA + Tukey / t-test