1 Diseño Factorial \(2^4\)

1.1 Ejercicio 9

En una empresa de electrónica, una máquina toma componentes que le proporciona un alimentador para montarlos o depo sitarlos en una tarjeta. Se ha tenido el problema de que la máquina falla en sus intentos por tomar el componente, lo cual causa paros de la máquina que detienen el proceso hasta que el operador se da cuenta y reinicia el proceso. Para diagnosticar mejor la situación, se decide correr un diseño de experimentos 24 con n = 2 réplicas, en el que se tienen los siguientes facto res y niveles (–, +),respectivamente: A) Velocidad de cam (70%, 100%), B) Velocidad de mesa (media, alta), C) Orden o secuencia de colocación (continua, variable), D) Alimentador (1, 2). Como el proceso es muy rápido, es necesario dejarlo operar en cada condición experimental el tiempo suficiente para reproducir el problema. Se consideró que esto se lograba con suficiente confianza con 500 componentes; por ello, cada una de las corridas experimentales consistió en colocar 500 componentes, y se midieron dos variables de respuesta: Y1 = número de errores (o intentos fallidos), y Y2 = tiempo real (en segundos) para tomar y “colocar” los 500 componentes. Es evidente que se quieren minimizar ambas variables.(Pulido & Vara Salazar, 2012)

Los datos obtenidos se muestran en la siguiente tabla:

Replica 1 Replica 2
Factor A Factor B Factor C Factor D Y1 Y2 Y1 Y2
-1 -1 -1 -1 61 88 50 79
1 -1 -1 -1 105 78 98 74
-1 1 -1 -1 61 82 40 82
1 1 -1 -1 104 73 145 79
-1 -1 1 -1 0 88 35 100
1 -1 1 -1 35 84 22 82
-1 1 1 -1 50 89 37 88
1 1 1 -1 57 79 71 81
-1 -1 -1 1 12 77 19 75
1 -1 -1 1 60 66 57 64
-1 1 -1 1 9 84 19 73
1 1 -1 1 72 93 61 66
-1 -1 1 1 0 86 0 82
1 -1 1 1 10 76 1 77
-1 1 1 1 3 84 7 86
1 1 1 1 15 75 15 73
  1. Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caídos, como por ejemplo el (–1, –1, +1, +1); alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadístico. De proceder así, explique qué información se perdería.

  2. Investigue qué efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).

  3. Obtenga el mejor ANOVA.

  4. Si en el análisis anterior encuentra alguna interacción signifi cativa, analice con detalle la más importante e interprete en términos físicos.

  5. ¿Qué tratamiento minimiza Y1?

  6. Ahora investigue qué efectos infl uyen de manera relevante sobre Y2.

  7. ¿Qué tratamiento minimiza Y2?

  8. Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.

  9. De los análisis de varianza para Y1 y Y2 observe el coefi ciente R2. ¿Qué concluye de ello?

  10. Verifique residuos.

1.2 Desarrollo del ejercicio

Inciso a

Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caídos, como por ejemplo el (–1, –1, +1, +1); alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadístico. De proceder así, explique qué información se perdería.

Si continúa de esta manera, ignorará el tiempo de eliminación o colocación de componentes que funcionan mal en estos procesos. Si procedemos de esta forma, la información que se perderá es buscar mejores métodos basados en diferentes ejecuciones, por lo que no habrá margen de error que nos ayude a determinar qué variables afectarán el proceso, por ejemplo (–1, - 1, + 1, +1) Tenemos 0 errores en el tiempo estimado, pero se pueden encontrar mejores resultados en otras corridas, con pocos errores, pero mayor tiempo de trabajo. Al proceder de esta manera, ignoraremos información importante y tomaremos decisiones arriesgadas porque no sabemos qué decisión arriesgada es porque no sabemos que las condiciones son óptimas para el proceso. Esta condición es óptima para este proceso.

Inciso b

Investigue qué efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).

library(printr)  
## Warning: package 'printr' was built under R version 4.0.5
library(FrF2)
## Warning: package 'FrF2' was built under R version 4.0.5
datos=read.table("dataset1.txt",header = TRUE)

str(datos)
## 'data.frame':    32 obs. of  6 variables:
##  $ Factor_A: int  -1 1 -1 1 -1 1 -1 1 -1 1 ...
##  $ Factor_B: int  -1 -1 1 1 -1 -1 1 1 -1 -1 ...
##  $ Factor_C: int  -1 -1 -1 -1 1 1 1 1 -1 -1 ...
##  $ Factor_D: int  -1 -1 -1 -1 -1 -1 -1 -1 1 1 ...
##  $ Y1      : int  61 105 61 104 0 35 50 57 12 60 ...
##  $ Y2      : int  88 78 82 73 88 84 89 79 77 66 ...
View(datos)
attach(datos)

head(datos, n=256L)
Factor_A Factor_B Factor_C Factor_D Y1 Y2
-1 -1 -1 -1 61 88
1 -1 -1 -1 105 78
-1 1 -1 -1 61 82
1 1 -1 -1 104 73
-1 -1 1 -1 0 88
1 -1 1 -1 35 84
-1 1 1 -1 50 89
1 1 1 -1 57 79
-1 -1 -1 1 12 77
1 -1 -1 1 60 66
-1 1 -1 1 9 84
1 1 -1 1 72 93
-1 -1 1 1 0 86
1 -1 1 1 10 76
-1 1 1 1 3 84
1 1 1 1 15 75
-1 -1 -1 -1 50 79
1 -1 -1 -1 98 74
-1 1 -1 -1 40 82
1 1 -1 -1 145 79
-1 -1 1 -1 35 100
1 -1 1 -1 22 82
-1 1 1 -1 37 88
1 1 1 -1 71 81
-1 -1 -1 1 19 75
1 -1 -1 1 57 64
-1 1 -1 1 19 73
1 1 -1 1 61 66
-1 -1 1 1 0 82
1 -1 1 1 1 77
-1 1 1 1 7 86
1 1 1 1 15 73
modelo=aov(Y1~(Factor_A*Factor_B*Factor_C*Factor_D))
summary(modelo)
##                                     Df Sum Sq Mean Sq F value   Pr(>F)    
## Factor_A                             1   8613    8613  62.260 6.63e-07 ***
## Factor_B                             1   1263    1263   9.126 0.008117 ** 
## Factor_C                             1  11820   11820  85.436 8.12e-08 ***
## Factor_D                             1  11666   11666  84.328 8.87e-08 ***
## Factor_A:Factor_B                    1    332     332   2.396 0.141163    
## Factor_A:Factor_C                    1   3549    3549  25.654 0.000115 ***
## Factor_B:Factor_C                    1    332     332   2.396 0.141163    
## Factor_A:Factor_D                    1    205     205   1.482 0.241106    
## Factor_B:Factor_D                    1    428     428   3.092 0.097779 .  
## Factor_C:Factor_D                    1    306     306   2.214 0.156214    
## Factor_A:Factor_B:Factor_C           1     69      69   0.499 0.490107    
## Factor_A:Factor_B:Factor_D           1     69      69   0.499 0.490107    
## Factor_A:Factor_C:Factor_D           1      9       9   0.065 0.801591    
## Factor_B:Factor_C:Factor_D           1    158     158   1.139 0.301766    
## Factor_A:Factor_B:Factor_C:Factor_D  1     23      23   0.165 0.690267    
## Residuals                           16   2213     138                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
modelo1=aov(Y1~(Factor_B+Factor_D+Factor_A*Factor_C))
summary(modelo1)
##                   Df Sum Sq Mean Sq F value   Pr(>F)    
## Factor_B           1   1263    1263   7.923  0.00918 ** 
## Factor_D           1  11666   11666  73.212 4.90e-09 ***
## Factor_A           1   8613    8613  54.053 8.30e-08 ***
## Factor_C           1  11820   11820  74.174 4.32e-09 ***
## Factor_A:Factor_C  1   3549    3549  22.272 7.05e-05 ***
## Residuals         26   4143     159                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Los factores que influyen son: A, B, C, D

Los factores significativos que influyen son: A,B,C,D,AC.

Inciso c

Obtenga el mejor ANOVA.

anova=aov(modelo1) 
summary(anova)
##                   Df Sum Sq Mean Sq F value   Pr(>F)    
## Factor_B           1   1263    1263   7.923  0.00918 ** 
## Factor_D           1  11666   11666  73.212 4.90e-09 ***
## Factor_A           1   8613    8613  54.053 8.30e-08 ***
## Factor_C           1  11820   11820  74.174 4.32e-09 ***
## Factor_A:Factor_C  1   3549    3549  22.272 7.05e-05 ***
## Residuals         26   4143     159                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

El mejor anova tiene orden de interaccion 2 por lo que se excluyeron los factores insignificativos.

Inciso d

Si en el análisis anterior encuentra alguna interacción significativa, analice con detalle la más importante e interprete en términos físicos.

library(FrF2)
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(Factor_A=c(-1,1), Factor_B=c(-1,1), Factor_C=c(-1,1), Factor_D=c(-1,1) ),replications = 2,randomize = FALSE)  
experimento_respuesta=add.response(design=experimento,response = Y1)  
grafica_efectos_principales=MEPlot(experimento_respuesta, main= "Gráfica de Efectos Individuales") 

grafica_interacciones=IAPlot(experimento_respuesta,main="Gráfica de Interacciones")

como observamos inicialmente la única interacción significativa que hay es AC. Posteriormente, si observamos la gráfica de interacciones, nosdaremos cuenta que los niveles óptimos para minimizar la variable de respuesta delnúmero de errores serán nivel ALTO de A y nivel BAJO de C.

Inciso e

¿Qué tratamiento minimiza Y1?

los tratamientos que minimizan a y1 son los tratamientos a y b.

Inciso f

Ahora investigue qué efectos infl uyen de manera relevante sobre Y2.

modelo=aov(Y2~(Factor_A*Factor_B*Factor_C*Factor_D))
summary(modelo)
##                                     Df Sum Sq Mean Sq F value  Pr(>F)   
## Factor_A                             1  472.8   472.8  12.942 0.00241 **
## Factor_B                             1    3.8     3.8   0.104 0.75183   
## Factor_C                             1  294.0   294.0   8.049 0.01190 * 
## Factor_D                             1  247.5   247.5   6.776 0.01922 * 
## Factor_A:Factor_B                    1   19.5    19.5   0.535 0.47523   
## Factor_A:Factor_C                    1   26.3    26.3   0.719 0.40885   
## Factor_B:Factor_C                    1   81.3    81.3   2.225 0.15525   
## Factor_A:Factor_D                    1    2.5     2.5   0.069 0.79573   
## Factor_B:Factor_D                    1   81.3    81.3   2.225 0.15525   
## Factor_C:Factor_D                    1    7.0     7.0   0.192 0.66673   
## Factor_A:Factor_B:Factor_C           1   26.3    26.3   0.719 0.40885   
## Factor_A:Factor_B:Factor_D           1    2.5     2.5   0.069 0.79573   
## Factor_A:Factor_C:Factor_D           1    0.8     0.8   0.021 0.88556   
## Factor_B:Factor_C:Factor_D           1   16.5    16.5   0.453 0.51074   
## Factor_A:Factor_B:Factor_C:Factor_D  1   34.0    34.0   0.932 0.34882   
## Residuals                           16  584.5    36.5                   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Podemos observar que los factores A, C y D son significativos. De estos, el que tiene mayor nivel de significancia es el factor A (Velocidadde cam)

Inciso g

¿Qué tratamiento minimiza Y2?

library(FrF2)
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(Factor_A=c(-1,1), Factor_B=c(-1,1),  Factor_C=c(-1,1), Factor_D=c(-1,1) ),replications = 2,randomize = FALSE)  
experimento_respuesta=add.response(design=experimento,response = Y2)  
grafica_efectos_principales=MEPlot(experimento_respuesta, main= "Gráfica de Efectos Individuales")

grafica_interacciones=IAPlot(experimento_respuesta, main= "Gráfica de Interacciones")

Con el objetivo de minimizar la segunda variable de respuesta se observa que elfactor A debe tener nivel ALTO, dado que el factor B no es significativo no se tendrá encuenta, factor C se trabajará con nivel BAJO y finalmente el factor D con nivel ALTO. (1, -1,1).

Inciso h

Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.

Para Y1 (A,B,C,D)≥ (-,-,+,+) Para Y2 (A,B,C,D)≥ (+,+,-,+) Los niveles ayc en las dos variables de respuesta son diferentes y, como queremos minimizar el error de falla, usamos el nivel que aumenta la combinación de las variables. Dado que ambas necesidades requieren un factor D en el nivel ALTO, podemos concluir que esta es una condición satisfactoria para minimizar Y1 e Y2.

Inciso i

De los análisis de varianza para Y1 y Y2 observe el coeficiente R2. ¿Qué concluye de ello?

R=((8613+1263+11820+11666+3549+428)/(8613+1263+11820+11666+3549+428+138)*100)
summary(R)
Min. 1st Qu. Median Mean 3rd Qu. Max.
99.63177 99.63177 99.63177 99.63177 99.63177 99.63177
R=((472.8+294+247.5)/(472.8+294+247.5+36.5)*100)
summary(R)
Min. 1st Qu. Median Mean 3rd Qu. Max.
96.52646 96.52646 96.52646 96.52646 96.52646 96.52646

R2 representa la capacidad de los datos para ajustar la variable de respuesta predictiva, es decir, cuanto mayor es el valor, mayor es la capacidad. De esto podemos concluir que asumiendo que el R2 de Y1 es 89%, los datos del modelo se ajustan mejor y, por lo tanto, tiene un mejor modelo. Los coeficientes de y1 e y2 explican toda la variabilidad de los datos. Aunque descrito más y1

1.2.1 Inciso J

Verifique residuos.

normalidad=shapiro.test(resid(modelo))  
print(normalidad) 
## 
##  Shapiro-Wilk normality test
## 
## data:  resid(modelo)
## W = 0.8854, p-value = 0.002686
qqnorm(resid(modelo),main= "Grafica de probabilidad para los residuales del modelo", xlab= "Cuantiles teoricos", ylab = "Cuantiles de muestra")
qqline(resid(modelo))

De acuerdo con la prueba anterior de Shapiro-Wilk, se puede visualizar la falta de normalidad de los residuales. Dado que \(Value_p\)<0.05, se rechaza la hipótesis nula y se verifica la ausencia de los residuales. Esto se confirma con el grafica de probabilidad de los residuos del modelo, lo que nos lleva a concluir que el modelo propuesto tiene datos atípicos, lo que hace que el modelo sea insuficiente para explicar el número de fallas relacionadas con el tiempo de colocación de los componentes.

#---Prueba Igualdad de Varianzas de Bartlett---#
homocedasticidad=bartlett.test(resid(modelo),Factor_A,Factor_B,Factor_C,Factor_D,data=experimento_respuesta)
print(homocedasticidad)
## 
##  Bartlett test of homogeneity of variances
## 
## data:  resid(modelo) and Factor_A
## Bartlett's K-squared = 2.0788, df = 1, p-value = 0.1494

Se puede observar que los residuos de estos factores son homocedásticos, aunque no tienen normalidad, sus varianzas son constantes. En resumen, se puede concluir que el modelo de regresión propuesto para esta situación no funciona.

Bibliografía

Pulido, H. G., & Vara Salazar, R. de la. (2012). Analisis y diseño de experimentos (3rd ed.). McGraw Hill.