1 Diseño factorial \(2^4\)

1.1 Ejercicio

Planteamiento 9

En una empresa de electrónica, una máquina toma componentes que le proporciona un alimentador para montarlos o depo sitarlos en una tarjeta. Se ha tenido el problema de que la máquina falla en sus intentos por tomar el componente, lo cual causa paros de la máquina que detienen el proceso hasta que el operador se da cuenta y reinicia el proceso. Para diagnosticar mejor la situación, se decide correr un diseño de experimentos 24 con n = 2 réplicas, en el que se tienen los siguientes facto res y niveles (–, +),respectivamente: A) Velocidad de cam (70%, 100%), B) Velocidad de mesa (media, alta), C) Orden o secuencia de colocación (continua, variable), D) Alimentador (1, 2). Como el proceso es muy rápido, es necesario dejarlo operar en cada condición experimental el tiempo suficiente para reproducir el problema. Se consideró que esto se lograba con suficiente confianza con 500 componentes; por ello, cada una de las corridas experimentales consistió en colocar 500 componentes, y se midieron dos variables de respuesta: Y1 = número de errores (o intentos fallidos), y Y2 = tiempo real (en segundos) para tomar y “colocar” los 500 componentes. Es evidente que se quieren minimizar ambas variables. (Pulido & Vara Salazar, 2012)

Los datos obtenidos se muestran en la siguiente tabla:

Replica 1 Replica 2
Factor A Factor B Factor C Factor D Y1 Y2 Y1 Y2
-1 -1 -1 -1 61 88 50 79
1 -1 -1 -1 105 78 98 74
-1 1 -1 -1 61 82 40 82
1 1 -1 -1 104 73 145 79
-1 -1 1 -1 0 88 35 100
1 -1 1 -1 35 84 22 82
-1 1 1 -1 50 89 37 88
1 1 1 -1 57 79 71 81
-1 -1 -1 1 12 77 19 75
1 -1 -1 1 60 66 57 64
-1 1 -1 1 9 84 19 73
1 1 -1 1 72 93 61 66
-1 -1 1 1 0 86 0 82
1 -1 1 1 10 76 1 77
-1 1 1 1 3 84 7 86
1 1 1 1 15 75 15 73
  1. Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caídos, como por ejemplo el (–1, –1, +1, +1); alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadístico. De proceder así, explique qué información se perdería.

  2. Investigue qué efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).

  3. Obtenga el mejor ANOVA.

  4. Si en el análisis anterior encuentra alguna interacción signifi cativa, analice con detalle la más importante e interprete en términos físicos.

  5. ¿Qué tratamiento minimiza Y1?

  6. Ahora investigue qué efectos infl uyen de manera relevante sobre Y2.

  7. ¿Qué tratamiento minimiza Y2?

  8. Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.

  9. De los análisis de varianza para Y1 y Y2 observe el coeficiente \(R^2\). ¿Qué concluye de ello?

  10. Verifique residuos.

1.1.1 Desarrollo del ejercicio

Inciso a

Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caídos, como por ejemplo el (–1, –1, +1, +1); alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadístico. De proceder así, explique qué información se perdería.

Si se continua de esta forma, se estaría ignorando el tiempo en tomar o colocar los componentes en donde no da tan buen desempeño en esos tratamientos Al proceder de esta manera omitiríamos información importante y tomaríamos una decisión riesgosa, ya que no sabemos si esta condición es óptima para el proceso.esta condición es óptima para el proceso

Inciso b

Investigue qué efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).

#-----Adquisición de datos-----#
library(printr)  
## Warning: package 'printr' was built under R version 4.0.5
library(FrF2)
## Warning: package 'FrF2' was built under R version 4.0.5
library(qcc)
## Warning: package 'qcc' was built under R version 4.0.5
datos=read.table("dataset1.txt",header = TRUE)
str(datos)
## 'data.frame':    32 obs. of  6 variables:
##  $ Factor_A: int  -1 1 -1 1 -1 1 -1 1 -1 1 ...
##  $ Factor_B: int  -1 -1 1 1 -1 -1 1 1 -1 -1 ...
##  $ Factor_C: int  -1 -1 -1 -1 1 1 1 1 -1 -1 ...
##  $ Factor_D: int  -1 -1 -1 -1 -1 -1 -1 -1 1 1 ...
##  $ Y1      : int  61 105 61 104 0 35 50 57 12 60 ...
##  $ Y2      : int  88 78 82 73 88 84 89 79 77 66 ...
View(datos)
attach(datos)

head(datos, n=256L)
Factor_A Factor_B Factor_C Factor_D Y1 Y2
-1 -1 -1 -1 61 88
1 -1 -1 -1 105 78
-1 1 -1 -1 61 82
1 1 -1 -1 104 73
-1 -1 1 -1 0 88
1 -1 1 -1 35 84
-1 1 1 -1 50 89
1 1 1 -1 57 79
-1 -1 -1 1 12 77
1 -1 -1 1 60 66
-1 1 -1 1 9 84
1 1 -1 1 72 93
-1 -1 1 1 0 86
1 -1 1 1 10 76
-1 1 1 1 3 84
1 1 1 1 15 75
-1 -1 -1 -1 50 79
1 -1 -1 -1 98 74
-1 1 -1 -1 40 82
1 1 -1 -1 145 79
-1 -1 1 -1 35 100
1 -1 1 -1 22 82
-1 1 1 -1 37 88
1 1 1 -1 71 81
-1 -1 -1 1 19 75
1 -1 -1 1 57 64
-1 1 -1 1 19 73
1 1 -1 1 61 66
-1 -1 1 1 0 82
1 -1 1 1 1 77
-1 1 1 1 7 86
1 1 1 1 15 73
modelo=aov(Y1~(Factor_A*Factor_B*Factor_C*Factor_D))
summary(modelo)
##                                     Df Sum Sq Mean Sq F value   Pr(>F)    
## Factor_A                             1   8613    8613  62.260 6.63e-07 ***
## Factor_B                             1   1263    1263   9.126 0.008117 ** 
## Factor_C                             1  11820   11820  85.436 8.12e-08 ***
## Factor_D                             1  11666   11666  84.328 8.87e-08 ***
## Factor_A:Factor_B                    1    332     332   2.396 0.141163    
## Factor_A:Factor_C                    1   3549    3549  25.654 0.000115 ***
## Factor_B:Factor_C                    1    332     332   2.396 0.141163    
## Factor_A:Factor_D                    1    205     205   1.482 0.241106    
## Factor_B:Factor_D                    1    428     428   3.092 0.097779 .  
## Factor_C:Factor_D                    1    306     306   2.214 0.156214    
## Factor_A:Factor_B:Factor_C           1     69      69   0.499 0.490107    
## Factor_A:Factor_B:Factor_D           1     69      69   0.499 0.490107    
## Factor_A:Factor_C:Factor_D           1      9       9   0.065 0.801591    
## Factor_B:Factor_C:Factor_D           1    158     158   1.139 0.301766    
## Factor_A:Factor_B:Factor_C:Factor_D  1     23      23   0.165 0.690267    
## Residuals                           16   2213     138                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

De acuerdo a las graficas obtenidas y el ANOVA realizado, se observa el \(valor_p\) para el efecto producido por el factor Velocidad de cam., al número de errores de la máquina es significativa. para el caso del factor de Velocidad de mesa, al número de errores de la máquina tambien es significativa. Para el caso del factor Orden de colocación, al número de errores de la máquina es significativa. Para el caso del factor Alimentador es significativo para el número de errores de la máquina, dado que, considerando un nivel de significancia de α=0.05 el \(valor_p\)<α, por lo que se acepta la hipótesis alterna y se concluye que existen diferencias significativa entre el número de errores produccidos por la máquina respecto al alimentador de la máquina. Para el caso de las interacciones la que mostro un valor significativo es la interacción Ac. Por lo que se concluye que los factores significactivos para este caso son: el factor velocidad de cam, factor velocidad de mesa, factor orden de colocación y la interacción Ac. Sin embargo la que más sobresale es el factor C que conrresponde a orden de colocación.

Inciso c

Obtenga el mejor ANOVA

modelo1=aov(Y1~(Factor_B+Factor_D+Factor_A*Factor_C))
summary(modelo1)
##                   Df Sum Sq Mean Sq F value   Pr(>F)    
## Factor_B           1   1263    1263   7.923  0.00918 ** 
## Factor_D           1  11666   11666  73.212 4.90e-09 ***
## Factor_A           1   8613    8613  54.053 8.30e-08 ***
## Factor_C           1  11820   11820  74.174 4.32e-09 ***
## Factor_A:Factor_C  1   3549    3549  22.272 7.05e-05 ***
## Residuals         26   4143     159                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Deacuerdo a los resultados obtenidos en el primer ANOVA, en el ANOVA mejorado se decide eliminar todas las interacciones puesto que no son significativas, quedando asi el factor B, D,A, C y la interacción Ac como los factores más significativos para este caso.

Inciso d

Si en el análisis anterior encuentra alguna interacción significativa, analice con detalle la más importante e interprete en términos físicos.

#----------Gráfica de efectos individuales----------#
library(FrF2)
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(Factor_A=c(-1,1), Factor_B=c(-1,1), Factor_C=c(-1,1), Factor_D=c(-1,1) ),replications = 2,randomize = FALSE)  
experimento_respuesta=add.response(design=experimento,response = Y1)  
grafica_efectos_principales=MEPlot(experimento_respuesta, main= "Gráfica de Efectos Individuales")

#----------Gráfica de Interacciones----------#
grafica_interacciones=IAPlot(experimento_respuesta,main="Gráfica de Interacciones")

En base a los resultados obtenidos, observamos que la única interracción significativa que existe es la AC. Si se observa la gráfica de interraciones, se puede visualizar los niveles óptimos para minimizar la variable de respuesta del número de errores será nivel alto para el Factor A y el nivel bajo para el Factor C.

Inciso e

¿Qué tratamiento minimiza Y1?
Ya que todos los cuatro factores de este caso son significativos para la variable de respuesta, es necesario trabajar con los niveles de todo. El factor A y B será necesario trabajarlos con el nivel bajo y el factor C y D se trabajara con el nivel alto para lograr minimizar la variable de respuesta (-1,-1,1,1). Es decir, los tratamientos que minimizan a Y1 son los tratamientos a y b.

Inciso f

Ahora investigue qué efectos influyen de manera relevante sobre Y2.

modelo=aov(Y2~(Factor_A*Factor_B*Factor_C*Factor_D))
summary(modelo)
##                                     Df Sum Sq Mean Sq F value  Pr(>F)   
## Factor_A                             1  472.8   472.8  12.942 0.00241 **
## Factor_B                             1    3.8     3.8   0.104 0.75183   
## Factor_C                             1  294.0   294.0   8.049 0.01190 * 
## Factor_D                             1  247.5   247.5   6.776 0.01922 * 
## Factor_A:Factor_B                    1   19.5    19.5   0.535 0.47523   
## Factor_A:Factor_C                    1   26.3    26.3   0.719 0.40885   
## Factor_B:Factor_C                    1   81.3    81.3   2.225 0.15525   
## Factor_A:Factor_D                    1    2.5     2.5   0.069 0.79573   
## Factor_B:Factor_D                    1   81.3    81.3   2.225 0.15525   
## Factor_C:Factor_D                    1    7.0     7.0   0.192 0.66673   
## Factor_A:Factor_B:Factor_C           1   26.3    26.3   0.719 0.40885   
## Factor_A:Factor_B:Factor_D           1    2.5     2.5   0.069 0.79573   
## Factor_A:Factor_C:Factor_D           1    0.8     0.8   0.021 0.88556   
## Factor_B:Factor_C:Factor_D           1   16.5    16.5   0.453 0.51074   
## Factor_A:Factor_B:Factor_C:Factor_D  1   34.0    34.0   0.932 0.34882   
## Residuals                           16  584.5    36.5                   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

De acuerdo a los datos obtenidos en el ANOVA se puede visualizar que los factores A,C y D son significativo, y el que tiene mayor nivel de significancia es el factor A Velocidad de Cam. A.

Inciso g

¿Qué tratamiento minimiza Y2?

#----------Gráfica de efectos individuales----------#
library(FrF2)
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(Factor_A=c(-1,1), Factor_B=c(-1,1),  Factor_C=c(-1,1), Factor_D=c(-1,1) ),replications = 2,randomize = FALSE)  
experimento_respuesta=add.response(design=experimento,response = Y2)  
grafica_efectos_principales=MEPlot(experimento_respuesta, main= "Gráfica de Efectos Individuales")

#------------Gráfica de Interacciones--------#
grafica_interacciones=IAPlot(experimento_respuesta, main= "Gráfica de Interacciones")

Los factores a minimizar a Y2 son A,C y D, ya que son en cierta medida significativos, por lo que sera necesario trabajar con estos. El efecto A debe tener el nivel alto, dado que el factor B no es significativo no se tendrá encuentra, el factor C se trabajará con nivel bajo y finalmente el factor D con nivel alto (1,-1,1).

Inciso h

Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.
Para Y1: (A, B, C, D) => (-1,-1,1,1)
Para Y2: (A, B, C, D) => (1,1,-1,1) o (1,-1,-1,1)
Se puede obserar que los niveles de A y C, difieren en ambas variables de respuesta y como se desea mayormente minimizar a la Replica Y1 o los errores de este, se toman los niveles que toman la combinación para dicha variable para los factores mencionados, por lo que la condición que quede para ambas replicas sería A, B, C, D =>(-1,-1,1,1).

Inciso i

De los análisis de varianza para Y1 y Y2 observe el coeficiente R2. ¿Qué concluye de ello?

#-----------Y1 (coeficiente)----------#
R=((8613+1263+11820+11666+3549+428)/(8613+1263+11820+11666+3549+428+138)*100)
summary(R)
Min. 1st Qu. Median Mean 3rd Qu. Max.
99.63177 99.63177 99.63177 99.63177 99.63177 99.63177
#-----------Y2 (coeficiente)----------#
R=((472.8+294+247.5)/(472.8+294+247.5+36.5)*100)
summary(R)
Min. 1st Qu. Median Mean 3rd Qu. Max.
96.52646 96.52646 96.52646 96.52646 96.52646 96.52646

En el \(R^2\), se puede observar la capacidad de los resultados obtenidos para que la variable de respuesta pueda ajustarse y predecirse, por lo que podemos decir que el número de errores (Y1) tiene en su mayoría un 99% de coincidencias de datos en comparación con el tiempo real (Y2), por lo que puede dicen que Y1 tiene un modelo mejor.

Inciso j

Verifique residuos.

#------------------Análisis Residual Prueba de Normalidad----------------#
normalidad=shapiro.test(resid(modelo))  
print(normalidad) 
## 
##  Shapiro-Wilk normality test
## 
## data:  resid(modelo)
## W = 0.8854, p-value = 0.002686
#-------------Gráfica de Probabiliad Normal-----------------#
qqnorm(resid(modelo),main= "Grafica de probabilidad para los residuales del modelo", xlab= "Cuantiles teoricos", ylab = "Cuantiles de muestra")
qqline(resid(modelo))

De acuerdo a la prueba de Shapiro-Wilk realizada anteriormente, se puede visualizar la falta de normalidad de los residuos, dado a que el \(Valor_p\)<0.05, por lo tanto se rechaza la hipotesis nula y se comprueba que los residuos no cuentan con normaildad, esto se confirma mediante la Gráfica de probabilidad para los Residuos del Modelo, esto nos lleva a la conclusión que existen datos atípicos, para el modelo propuesto, lo que provoca que el modelo no sea el adecuado para explicar el número de fallas respeto al tiempo para colocar los componentes.

#---Prueba Igualdad de Varianzas de Bartlett---#
homocedasticidad=bartlett.test(resid(modelo),Factor_A,Factor_B,Factor_C,Factor_D,data=experimento_respuesta)
print(homocedasticidad)
## 
##  Bartlett test of homogeneity of variances
## 
## data:  resid(modelo) and Factor_A
## Bartlett's K-squared = 2.0788, df = 1, p-value = 0.1494

Como se puede visualizar los residuales son homocedásticos para los factores, si bien no cuentan con normalidad sus varianza son constante. Por todo lo anterior se puede concluir que el modelo de regresión planteado para este caso no funciona.

Bibliografía

Pulido, H. G., & Vara Salazar, R. de la. (2012). Analisis y diseño de experimentos (3rd ed.). McGraw Hill.