Planteamiento 9
En una empresa de electrónica, una máquina toma componentes que le proporciona un alimentador para montarlos o depo sitarlos en una tarjeta. Se ha tenido el problema de que la máquina falla en sus intentos por tomar el componente, lo cual causa paros de la máquina que detienen el proceso hasta que el operador se da cuenta y reinicia el proceso. Para diagnosticar mejor la situación, se decide correr un diseño de experimentos 24 con n = 2 réplicas, en el que se tienen los siguientes facto res y niveles (–, +),respectivamente: A) Velocidad de cam (70%, 100%), B) Velocidad de mesa (media, alta), C) Orden o secuencia de colocación (continua, variable), D) Alimentador (1, 2). Como el proceso es muy rápido, es necesario dejarlo operar en cada condición experimental el tiempo suficiente para reproducir el problema. Se consideró que esto se lograba con suficiente confianza con 500 componentes; por ello, cada una de las corridas experimentales consistió en colocar 500 componentes, y se midieron dos variables de respuesta: Y1 = número de errores (o intentos fallidos), y Y2 = tiempo real (en segundos) para tomar y “colocar” los 500 componentes. Es evidente que se quieren minimizar ambas variables. (Pulido & Vara Salazar, 2012)
Los datos obtenidos se muestran en la siguiente tabla:
| Replica | 1 | Replica | 2 | ||||
|---|---|---|---|---|---|---|---|
| Factor A | Factor B | Factor C | Factor D | Y1 | Y2 | Y1 | Y2 |
| -1 | -1 | -1 | -1 | 61 | 88 | 50 | 79 |
| 1 | -1 | -1 | -1 | 105 | 78 | 98 | 74 |
| -1 | 1 | -1 | -1 | 61 | 82 | 40 | 82 |
| 1 | 1 | -1 | -1 | 104 | 73 | 145 | 79 |
| -1 | -1 | 1 | -1 | 0 | 88 | 35 | 100 |
| 1 | -1 | 1 | -1 | 35 | 84 | 22 | 82 |
| -1 | 1 | 1 | -1 | 50 | 89 | 37 | 88 |
| 1 | 1 | 1 | -1 | 57 | 79 | 71 | 81 |
| -1 | -1 | -1 | 1 | 12 | 77 | 19 | 75 |
| 1 | -1 | -1 | 1 | 60 | 66 | 57 | 64 |
| -1 | 1 | -1 | 1 | 9 | 84 | 19 | 73 |
| 1 | 1 | -1 | 1 | 72 | 93 | 61 | 66 |
| -1 | -1 | 1 | 1 | 0 | 86 | 0 | 82 |
| 1 | -1 | 1 | 1 | 10 | 76 | 1 | 77 |
| -1 | 1 | 1 | 1 | 3 | 84 | 7 | 86 |
| 1 | 1 | 1 | 1 | 15 | 75 | 15 | 73 |
Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caídos, como por ejemplo el (–1, –1, +1, +1); alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadístico. De proceder así, explique qué información se perdería.
Investigue qué efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).
Obtenga el mejor ANOVA.
Si en el análisis anterior encuentra alguna interacción signifi cativa, analice con detalle la más importante e interprete en términos físicos.
¿Qué tratamiento minimiza Y1?
Ahora investigue qué efectos infl uyen de manera relevante sobre Y2.
¿Qué tratamiento minimiza Y2?
Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.
De los análisis de varianza para Y1 y Y2 observe el coeficiente \(R^2\). ¿Qué concluye de ello?
Verifique residuos.
Inciso a
Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caídos, como por ejemplo el (–1, –1, +1, +1); alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadístico. De proceder así, explique qué información se perdería.
Si se continua de esta forma, se estaría ignorando el tiempo en tomar o colocar los componentes en donde no da tan buen desempeño en esos tratamientos Al proceder de esta manera omitiríamos información importante y tomaríamos una decisión riesgosa, ya que no sabemos si esta condición es óptima para el proceso.esta condición es óptima para el proceso
Inciso b
Investigue qué efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).
#-----Adquisición de datos-----#
library(printr)
## Warning: package 'printr' was built under R version 4.0.5
library(FrF2)
## Warning: package 'FrF2' was built under R version 4.0.5
library(qcc)
## Warning: package 'qcc' was built under R version 4.0.5
datos=read.table("dataset1.txt",header = TRUE)
str(datos)
## 'data.frame': 32 obs. of 6 variables:
## $ Factor_A: int -1 1 -1 1 -1 1 -1 1 -1 1 ...
## $ Factor_B: int -1 -1 1 1 -1 -1 1 1 -1 -1 ...
## $ Factor_C: int -1 -1 -1 -1 1 1 1 1 -1 -1 ...
## $ Factor_D: int -1 -1 -1 -1 -1 -1 -1 -1 1 1 ...
## $ Y1 : int 61 105 61 104 0 35 50 57 12 60 ...
## $ Y2 : int 88 78 82 73 88 84 89 79 77 66 ...
View(datos)
attach(datos)
head(datos, n=256L)
| Factor_A | Factor_B | Factor_C | Factor_D | Y1 | Y2 |
|---|---|---|---|---|---|
| -1 | -1 | -1 | -1 | 61 | 88 |
| 1 | -1 | -1 | -1 | 105 | 78 |
| -1 | 1 | -1 | -1 | 61 | 82 |
| 1 | 1 | -1 | -1 | 104 | 73 |
| -1 | -1 | 1 | -1 | 0 | 88 |
| 1 | -1 | 1 | -1 | 35 | 84 |
| -1 | 1 | 1 | -1 | 50 | 89 |
| 1 | 1 | 1 | -1 | 57 | 79 |
| -1 | -1 | -1 | 1 | 12 | 77 |
| 1 | -1 | -1 | 1 | 60 | 66 |
| -1 | 1 | -1 | 1 | 9 | 84 |
| 1 | 1 | -1 | 1 | 72 | 93 |
| -1 | -1 | 1 | 1 | 0 | 86 |
| 1 | -1 | 1 | 1 | 10 | 76 |
| -1 | 1 | 1 | 1 | 3 | 84 |
| 1 | 1 | 1 | 1 | 15 | 75 |
| -1 | -1 | -1 | -1 | 50 | 79 |
| 1 | -1 | -1 | -1 | 98 | 74 |
| -1 | 1 | -1 | -1 | 40 | 82 |
| 1 | 1 | -1 | -1 | 145 | 79 |
| -1 | -1 | 1 | -1 | 35 | 100 |
| 1 | -1 | 1 | -1 | 22 | 82 |
| -1 | 1 | 1 | -1 | 37 | 88 |
| 1 | 1 | 1 | -1 | 71 | 81 |
| -1 | -1 | -1 | 1 | 19 | 75 |
| 1 | -1 | -1 | 1 | 57 | 64 |
| -1 | 1 | -1 | 1 | 19 | 73 |
| 1 | 1 | -1 | 1 | 61 | 66 |
| -1 | -1 | 1 | 1 | 0 | 82 |
| 1 | -1 | 1 | 1 | 1 | 77 |
| -1 | 1 | 1 | 1 | 7 | 86 |
| 1 | 1 | 1 | 1 | 15 | 73 |
modelo=aov(Y1~(Factor_A*Factor_B*Factor_C*Factor_D))
summary(modelo)
## Df Sum Sq Mean Sq F value Pr(>F)
## Factor_A 1 8613 8613 62.260 6.63e-07 ***
## Factor_B 1 1263 1263 9.126 0.008117 **
## Factor_C 1 11820 11820 85.436 8.12e-08 ***
## Factor_D 1 11666 11666 84.328 8.87e-08 ***
## Factor_A:Factor_B 1 332 332 2.396 0.141163
## Factor_A:Factor_C 1 3549 3549 25.654 0.000115 ***
## Factor_B:Factor_C 1 332 332 2.396 0.141163
## Factor_A:Factor_D 1 205 205 1.482 0.241106
## Factor_B:Factor_D 1 428 428 3.092 0.097779 .
## Factor_C:Factor_D 1 306 306 2.214 0.156214
## Factor_A:Factor_B:Factor_C 1 69 69 0.499 0.490107
## Factor_A:Factor_B:Factor_D 1 69 69 0.499 0.490107
## Factor_A:Factor_C:Factor_D 1 9 9 0.065 0.801591
## Factor_B:Factor_C:Factor_D 1 158 158 1.139 0.301766
## Factor_A:Factor_B:Factor_C:Factor_D 1 23 23 0.165 0.690267
## Residuals 16 2213 138
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
De acuerdo a las graficas obtenidas y el ANOVA realizado, se observa el \(valor_p\) para el efecto producido por el factor Velocidad de cam., al número de errores de la máquina es significativa. para el caso del factor de Velocidad de mesa, al número de errores de la máquina tambien es significativa. Para el caso del factor Orden de colocación, al número de errores de la máquina es significativa. Para el caso del factor Alimentador es significativo para el número de errores de la máquina, dado que, considerando un nivel de significancia de α=0.05 el \(valor_p\)<α, por lo que se acepta la hipótesis alterna y se concluye que existen diferencias significativa entre el número de errores produccidos por la máquina respecto al alimentador de la máquina. Para el caso de las interacciones la que mostro un valor significativo es la interacción Ac. Por lo que se concluye que los factores significactivos para este caso son: el factor velocidad de cam, factor velocidad de mesa, factor orden de colocación y la interacción Ac. Sin embargo la que más sobresale es el factor C que conrresponde a orden de colocación.
Inciso c
Obtenga el mejor ANOVA
modelo1=aov(Y1~(Factor_B+Factor_D+Factor_A*Factor_C))
summary(modelo1)
## Df Sum Sq Mean Sq F value Pr(>F)
## Factor_B 1 1263 1263 7.923 0.00918 **
## Factor_D 1 11666 11666 73.212 4.90e-09 ***
## Factor_A 1 8613 8613 54.053 8.30e-08 ***
## Factor_C 1 11820 11820 74.174 4.32e-09 ***
## Factor_A:Factor_C 1 3549 3549 22.272 7.05e-05 ***
## Residuals 26 4143 159
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Deacuerdo a los resultados obtenidos en el primer ANOVA, en el ANOVA mejorado se decide eliminar todas las interacciones puesto que no son significativas, quedando asi el factor B, D,A, C y la interacción Ac como los factores más significativos para este caso.
Inciso d
Si en el análisis anterior encuentra alguna interacción significativa, analice con detalle la más importante e interprete en términos físicos.
#----------Gráfica de efectos individuales----------#
library(FrF2)
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(Factor_A=c(-1,1), Factor_B=c(-1,1), Factor_C=c(-1,1), Factor_D=c(-1,1) ),replications = 2,randomize = FALSE)
experimento_respuesta=add.response(design=experimento,response = Y1)
grafica_efectos_principales=MEPlot(experimento_respuesta, main= "Gráfica de Efectos Individuales")
#----------Gráfica de Interacciones----------#
grafica_interacciones=IAPlot(experimento_respuesta,main="Gráfica de Interacciones")
En base a los resultados obtenidos, observamos que la única interracción significativa que existe es la AC. Si se observa la gráfica de interraciones, se puede visualizar los niveles óptimos para minimizar la variable de respuesta del número de errores será nivel alto para el Factor A y el nivel bajo para el Factor C.
Inciso e
¿Qué tratamiento minimiza Y1?
Ya que todos los cuatro factores de este caso son significativos para la variable de respuesta, es necesario trabajar con los niveles de todo. El factor A y B será necesario trabajarlos con el nivel bajo y el factor C y D se trabajara con el nivel alto para lograr minimizar la variable de respuesta (-1,-1,1,1). Es decir, los tratamientos que minimizan a Y1 son los tratamientos a y b.
Inciso f
Ahora investigue qué efectos influyen de manera relevante sobre Y2.
modelo=aov(Y2~(Factor_A*Factor_B*Factor_C*Factor_D))
summary(modelo)
## Df Sum Sq Mean Sq F value Pr(>F)
## Factor_A 1 472.8 472.8 12.942 0.00241 **
## Factor_B 1 3.8 3.8 0.104 0.75183
## Factor_C 1 294.0 294.0 8.049 0.01190 *
## Factor_D 1 247.5 247.5 6.776 0.01922 *
## Factor_A:Factor_B 1 19.5 19.5 0.535 0.47523
## Factor_A:Factor_C 1 26.3 26.3 0.719 0.40885
## Factor_B:Factor_C 1 81.3 81.3 2.225 0.15525
## Factor_A:Factor_D 1 2.5 2.5 0.069 0.79573
## Factor_B:Factor_D 1 81.3 81.3 2.225 0.15525
## Factor_C:Factor_D 1 7.0 7.0 0.192 0.66673
## Factor_A:Factor_B:Factor_C 1 26.3 26.3 0.719 0.40885
## Factor_A:Factor_B:Factor_D 1 2.5 2.5 0.069 0.79573
## Factor_A:Factor_C:Factor_D 1 0.8 0.8 0.021 0.88556
## Factor_B:Factor_C:Factor_D 1 16.5 16.5 0.453 0.51074
## Factor_A:Factor_B:Factor_C:Factor_D 1 34.0 34.0 0.932 0.34882
## Residuals 16 584.5 36.5
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
De acuerdo a los datos obtenidos en el ANOVA se puede visualizar que los factores A,C y D son significativo, y el que tiene mayor nivel de significancia es el factor A Velocidad de Cam. A.
Inciso g
¿Qué tratamiento minimiza Y2?
#----------Gráfica de efectos individuales----------#
library(FrF2)
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(Factor_A=c(-1,1), Factor_B=c(-1,1), Factor_C=c(-1,1), Factor_D=c(-1,1) ),replications = 2,randomize = FALSE)
experimento_respuesta=add.response(design=experimento,response = Y2)
grafica_efectos_principales=MEPlot(experimento_respuesta, main= "Gráfica de Efectos Individuales")
#------------Gráfica de Interacciones--------#
grafica_interacciones=IAPlot(experimento_respuesta, main= "Gráfica de Interacciones")
Los factores a minimizar a Y2 son A,C y D, ya que son en cierta medida significativos, por lo que sera necesario trabajar con estos. El efecto A debe tener el nivel alto, dado que el factor B no es significativo no se tendrá encuentra, el factor C se trabajará con nivel bajo y finalmente el factor D con nivel alto (1,-1,1).
Inciso h
Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.
Para Y1: (A, B, C, D) => (-1,-1,1,1)
Para Y2: (A, B, C, D) => (1,1,-1,1) o (1,-1,-1,1)
Se puede obserar que los niveles de A y C, difieren en ambas variables de respuesta y como se desea mayormente minimizar a la Replica Y1 o los errores de este, se toman los niveles que toman la combinación para dicha variable para los factores mencionados, por lo que la condición que quede para ambas replicas sería A, B, C, D =>(-1,-1,1,1).
Inciso i
De los análisis de varianza para Y1 y Y2 observe el coeficiente R2. ¿Qué concluye de ello?
#-----------Y1 (coeficiente)----------#
R=((8613+1263+11820+11666+3549+428)/(8613+1263+11820+11666+3549+428+138)*100)
summary(R)
| Min. | 1st Qu. | Median | Mean | 3rd Qu. | Max. |
|---|---|---|---|---|---|
| 99.63177 | 99.63177 | 99.63177 | 99.63177 | 99.63177 | 99.63177 |
#-----------Y2 (coeficiente)----------#
R=((472.8+294+247.5)/(472.8+294+247.5+36.5)*100)
summary(R)
| Min. | 1st Qu. | Median | Mean | 3rd Qu. | Max. |
|---|---|---|---|---|---|
| 96.52646 | 96.52646 | 96.52646 | 96.52646 | 96.52646 | 96.52646 |
En el \(R^2\), se puede observar la capacidad de los resultados obtenidos para que la variable de respuesta pueda ajustarse y predecirse, por lo que podemos decir que el número de errores (Y1) tiene en su mayoría un 99% de coincidencias de datos en comparación con el tiempo real (Y2), por lo que puede dicen que Y1 tiene un modelo mejor.
Inciso j
Verifique residuos.
#------------------Análisis Residual Prueba de Normalidad----------------#
normalidad=shapiro.test(resid(modelo))
print(normalidad)
##
## Shapiro-Wilk normality test
##
## data: resid(modelo)
## W = 0.8854, p-value = 0.002686
#-------------Gráfica de Probabiliad Normal-----------------#
qqnorm(resid(modelo),main= "Grafica de probabilidad para los residuales del modelo", xlab= "Cuantiles teoricos", ylab = "Cuantiles de muestra")
qqline(resid(modelo))
De acuerdo a la prueba de Shapiro-Wilk realizada anteriormente, se puede visualizar la falta de normalidad de los residuos, dado a que el \(Valor_p\)<0.05, por lo tanto se rechaza la hipotesis nula y se comprueba que los residuos no cuentan con normaildad, esto se confirma mediante la Gráfica de probabilidad para los Residuos del Modelo, esto nos lleva a la conclusión que existen datos atípicos, para el modelo propuesto, lo que provoca que el modelo no sea el adecuado para explicar el número de fallas respeto al tiempo para colocar los componentes.
#---Prueba Igualdad de Varianzas de Bartlett---#
homocedasticidad=bartlett.test(resid(modelo),Factor_A,Factor_B,Factor_C,Factor_D,data=experimento_respuesta)
print(homocedasticidad)
##
## Bartlett test of homogeneity of variances
##
## data: resid(modelo) and Factor_A
## Bartlett's K-squared = 2.0788, df = 1, p-value = 0.1494
Como se puede visualizar los residuales son homocedásticos para los factores, si bien no cuentan con normalidad sus varianza son constante. Por todo lo anterior se puede concluir que el modelo de regresión planteado para este caso no funciona.