1 Diseño Factorial \(2^4\)

1.1 Ejemplo

  1. En una empresa de electrónica, una máquina toma componentes que le proporciona un alimentador para montarlos o depositarlos en una tarjeta. Se ha tenido el problema de que la máquina falla en sus intentos por tomar el componente, lo cual causa paros de la máquina que detienen el proceso hasta que el operador se da cuenta y reinicia el proceso. Para diagnosticar mejor la situación, se decide correr un diseño de experimentos 24 con n = 2 réplicas, en el que se tienen los siguientes factores y niveles (–, +), respectivamente: A) Velocidad de cam (70%, 100%), B) Velocidad de mesa (media, alta), C) Orden o secuencia de colocación (continua, variable), D) Alimentador (1, 2). Como el proceso es muy rápido, es necesario dejarlo operar en cada condición experimental el tiempo suficiente para reproducir el problema. Se consideró que esto se lograba con suficiente confianza con 500 componentes; por ello, cada una de las corridas experimentales consistió en colocar 500 componentes, y se midieron dos variables de respuesta: Y1 = número de errores (o intentos fallidos), y Y2 = tiempo real (en segundos) para tomar y “colocar” los 500 componentes. Es evidente que se quieren minimizar ambas variables. Los datos obtenidos se muestran en la siguiente tabla.(Pulido, De la Vara Salazar, González, Martı́nez, & Pérez, 2012)
Réplica 1 Réplica 2
Factor A Factor B Factor C Factor D Y1 Y2 Y3 Y4
-1 -1 -1 -1 61 88 50 79
1 -1 -1 -1 105 78 98 74
-1 1 -1 -1 61 82 40 82
1 1 -1 -1 104 73 145 79
-1 -1 1 -1 0 88 35 100
1 -1 1 -1 35 84 22 82
-1 1 1 -1 50 89 37 88
1 1 1 -1 57 79 71 81
-1 -1 -1 1 12 77 19 75
1 -1 -1 1 60 66 57 64
-1 1 -1 1 9 84 19 73
1 1 -1 1 72 93 61 66
-1 -1 1 1 0 86 0 82
1 -1 1 1 10 76 1 77
-1 1 1 1 3 84 7 86
1 1 1 1 15 75 15 73

a) Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caído, como por ejemplo el (-1,-1,+1,+1): alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadistico. De proceder así, explique que información se perdería.
b) Investigue que efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).
c) Obtenga el mejor ANOVA.
d) Si en el análisis anterior encuentra alguna interacción significativa, analice con detalle la más importante e interprete en términos físicos.
e) ¿Qué tratamiento minimiza Y1?
f) Ahora investigue qué efectos influyen de manera relevante sobre Y2.
g) ¿Qué tratamiento minimiza Y2?
h) Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.
i) De los análisis de varianza para Y1 y Y2 observe el coeficiente \(R^2\). ¿Qué concluye de ello?
j) Verifique residuos.

1.2 Solución del ejercicio

a) Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caído, como por ejemplo el (-1,-1,+1,+1); alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadistico. De proceder así, explique que información se perdería.

En este caso, se perdería el tiempo que tarda en colocar los componentes en la situación de no poseer un buen desempeño en la prueba. Ademas de que si se sigue de esta manera se omitiria información importante y seria riesgoso ya que no se sabria con exactitud si esta condicion es optima en el proceso.

b) Investigue que efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).

#-------------Adquisición de datos-------------#
library(AlgDesign)
library(lattice)
library(printr)
library(FrF2)
library(qcc)
datos=read.table("dataset2.txt", header = TRUE)
str(datos)
## 'data.frame':    32 obs. of  6 variables:
##  $ FactorA   : int  -1 1 -1 1 -1 1 -1 1 -1 1 ...
##  $ FactorB   : int  -1 -1 1 1 -1 -1 1 1 -1 -1 ...
##  $ FactorC   : int  -1 -1 -1 -1 1 1 1 1 -1 -1 ...
##  $ FactorD   : int  -1 -1 -1 -1 -1 -1 -1 -1 1 1 ...
##  $ Replica_Y1: int  61 105 61 104 0 35 50 57 12 60 ...
##  $ Replica_Y2: int  88 78 82 73 88 84 89 79 77 66 ...
View(datos)
attach(datos)

Modelo matemático

\[\hat{y}_{ijkl}=\mu*\tau_{i}*\beta_{j}*\gamma_{k}*\lambda_{l}*\]

#------------Modelo matemático-----------#
f_factorA=factor(`FactorA`)
f_factorB=factor(`FactorB`)
f_factorC=factor(`FactorC`)
f_factorD=factor(`FactorD`)
head(datos, n= 256L)
FactorA FactorB FactorC FactorD Replica_Y1 Replica_Y2
-1 -1 -1 -1 61 88
1 -1 -1 -1 105 78
-1 1 -1 -1 61 82
1 1 -1 -1 104 73
-1 -1 1 -1 0 88
1 -1 1 -1 35 84
-1 1 1 -1 50 89
1 1 1 -1 57 79
-1 -1 -1 1 12 77
1 -1 -1 1 60 66
-1 1 -1 1 9 84
1 1 -1 1 72 93
-1 -1 1 1 0 86
1 -1 1 1 10 76
-1 1 1 1 3 84
1 1 1 1 15 75
-1 -1 -1 -1 50 79
1 -1 -1 -1 98 74
-1 1 -1 -1 40 82
1 1 -1 -1 145 79
-1 -1 1 -1 35 100
1 -1 1 -1 22 82
-1 1 1 -1 37 88
1 1 1 -1 71 81
-1 -1 -1 1 19 75
1 -1 -1 1 57 64
-1 1 -1 1 19 73
1 1 -1 1 61 66
-1 -1 1 1 0 82
1 -1 1 1 1 77
-1 1 1 1 7 86
1 1 1 1 15 73
modelo=aov(Replica_Y1~(FactorA*FactorB*FactorC*FactorD))
summary(modelo)
##                                 Df Sum Sq Mean Sq F value   Pr(>F)    
## FactorA                          1   8613    8613  62.260 6.63e-07 ***
## FactorB                          1   1263    1263   9.126 0.008117 ** 
## FactorC                          1  11820   11820  85.436 8.12e-08 ***
## FactorD                          1  11666   11666  84.328 8.87e-08 ***
## FactorA:FactorB                  1    332     332   2.396 0.141163    
## FactorA:FactorC                  1   3549    3549  25.654 0.000115 ***
## FactorB:FactorC                  1    332     332   2.396 0.141163    
## FactorA:FactorD                  1    205     205   1.482 0.241106    
## FactorB:FactorD                  1    428     428   3.092 0.097779 .  
## FactorC:FactorD                  1    306     306   2.214 0.156214    
## FactorA:FactorB:FactorC          1     69      69   0.499 0.490107    
## FactorA:FactorB:FactorD          1     69      69   0.499 0.490107    
## FactorA:FactorC:FactorD          1      9       9   0.065 0.801591    
## FactorB:FactorC:FactorD          1    158     158   1.139 0.301766    
## FactorA:FactorB:FactorC:FactorD  1     23      23   0.165 0.690267    
## Residuals                       16   2213     138                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Los resultados que se muestran en la tabla ANOVA del inciso se observa que existen efectos significativos, ya que de acuerdo con el valor de \(\alpha=0.05\) el \(Valor_{p}<\alpha\) y estos arrojan un valor menor a este, ya sea individualmente o en interacción con otros, los cuales como se puede ver en los resultados de la tabla, los efectos que influyen de manera significativa son el A, B, C, D y una interaccion entre AC.

c) Obtenga el mejor ANOVA.

modelo1=aov(Replica_Y1~(FactorB+FactorD+FactorA*FactorC))
anova=aov(modelo1)
summary(anova)
##                 Df Sum Sq Mean Sq F value   Pr(>F)    
## FactorB          1   1263    1263   7.923  0.00918 ** 
## FactorD          1  11666   11666  73.212 4.90e-09 ***
## FactorA          1   8613    8613  54.053 8.30e-08 ***
## FactorC          1  11820   11820  74.174 4.32e-09 ***
## FactorA:FactorC  1   3549    3549  22.272 7.05e-05 ***
## Residuals       26   4143     159                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

La tabla mejorada de anova muestra los datos en orden y los que no son significativos, por lo que nos muestra una tabla resumida.

d) Si en el análisis anterior encuentra alguna interacción significativa, analice con detalle la más importante e interprete en términos físicos.

#--------------Gráfica de efectos individuales----------#
library(printr)
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(FactorA=c(-1,1), FactorB=c(-1,1), FactorC=c(-1,1), FactorD=c(-1,1) ),replications = 2,randomize = FALSE)
experimento_resp=add.response(design = experimento,response = Replica_Y1)
grafica_efectos_principales=MEPlot(experimento_resp, main= "Gráfica de Efectos Individuales")

#------------Gráfica de interacciones--------#
grafica_interacciones=IAPlot(experimento_resp, main= "Gráfica de Interacciones")

Como se puede observar, hay un valor que destaca más, que en este caso es la interacción entre los factores AC, ya que como se pued eobservar en las grafica individualmente, tanto A como C tiene una pendiente mas pronunciada a comparación de las demás.

e) ¿Qué tratamiento minimiza Y1?

Ya que los cuatro factores A, B, C, D son significativos para la variable de respuesta, es necesario trabajar con los niveles de estos.Por lo que para el factor A y B se trabajara con niveles altos, mientras que C y D con niveles bajos, por ejemplo (-1,-1,1,1).

f) Ahora investigue qué efectos influyen de manera relevante sobre Y2.

modelo=aov(Replica_Y2~(FactorA*FactorB*FactorC*FactorD))
summary(modelo)
##                                 Df Sum Sq Mean Sq F value  Pr(>F)   
## FactorA                          1  472.8   472.8  12.942 0.00241 **
## FactorB                          1    3.8     3.8   0.104 0.75183   
## FactorC                          1  294.0   294.0   8.049 0.01190 * 
## FactorD                          1  247.5   247.5   6.776 0.01922 * 
## FactorA:FactorB                  1   19.5    19.5   0.535 0.47523   
## FactorA:FactorC                  1   26.3    26.3   0.719 0.40885   
## FactorB:FactorC                  1   81.3    81.3   2.225 0.15525   
## FactorA:FactorD                  1    2.5     2.5   0.069 0.79573   
## FactorB:FactorD                  1   81.3    81.3   2.225 0.15525   
## FactorC:FactorD                  1    7.0     7.0   0.192 0.66673   
## FactorA:FactorB:FactorC          1   26.3    26.3   0.719 0.40885   
## FactorA:FactorB:FactorD          1    2.5     2.5   0.069 0.79573   
## FactorA:FactorC:FactorD          1    0.8     0.8   0.021 0.88556   
## FactorB:FactorC:FactorD          1   16.5    16.5   0.453 0.51074   
## FactorA:FactorB:FactorC:FactorD  1   34.0    34.0   0.932 0.34882   
## Residuals                       16  584.5    36.5                   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

En la tabla para averiguar los efectos que influen de manera relevante en la Replica_Y2, se tiene como significativos a tres factores, los cuales son, el A C y el D, pero como es de observar el factor A es es el que tiene un mayor nivel de significancia a comparación del C y D.

g) ¿Qué tratamiento minimiza Y2?

#--------------Gráfica de efectos individuales----------#
library(printr)
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(f_FactorA=c(-1,1), FactorB=c(-1,1), FactorC=c(-1,1), FactorD=c(-1,1) ),replications = 2,randomize = FALSE)
experimento_resp=add.response(design = experimento,response = Replica_Y2)
grafica_efectos_principales=MEPlot(experimento_resp, main= "Gráfica de Efectos Individuales")

#------------Gráfica de interacciones--------#
grafica_interacciones=IAPlot(experimento_resp, main= "Gráfica de Interacciones")

Los factores que minimizan a la Replica_Y2 son A, C y D, ya que son en cierta medida significativos, por lo que sera necesario trabajar con estos. Por ende el factor A es necesario trabajarlo con niveles altos, mientras que para los factores C y D, por su parte el C se trabajara con nivles bajos para lograr minimizar la variable de respuesta, mientras que el D con un vivel alto (1, -1, 1).

h) Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.

Para Y1: (A, B, C, D) => (-1,-1,1,1) Para Y2: (A, B, C, D) => (1,1,-1,1) o (1,-1,-1,1). Se puede obserar que los niveles de A y C, difieren en ambas variables de respuesta y como se desea mayormente minimizar a la Replica Y1 o los errores de este, se toman los niveles que toman la combinación para dicha variable para los factores mencionados, poe lo que la condición que quede para ambas replicas sería A, B, C, D =>(-1,-1,1,1).

i) De los análisis de varianza para Y1 y Y2 observe el coeficiente \(R^2\). ¿Qué concluye de ello?

Replica_Y1 (coeficiente)

R=((8613+1263+11820+11666+3549+428)/(8613+1263+11820+11666+3549+428+138)*100)
summary(R)
Min. 1st Qu. Median Mean 3rd Qu. Max.
99.63177 99.63177 99.63177 99.63177 99.63177 99.63177

Replica_Y2 (coeficiente)

R=((472.8+294+247.5)/(472.8+294+247.5+36.5)*100)
summary(R)
Min. 1st Qu. Median Mean 3rd Qu. Max.
96.52646 96.52646 96.52646 96.52646 96.52646 96.52646

Con el \(R^2\) podemos observar la capacidad que tienen los resultados obtenidos para que se puedan ajustar y predecir la variable resuesta, por lo que podemos decir que la Replica_Y1 tiene en su mayoria el 99% que los datos se ajustan a comparacion de la Replica_Y2, por ende se puede decir que Y1 tiene un mejor modelo.

j) Verifique residuos.

Prueba de Normalidad de Residuos de Shapiro-Wilk

\[H_{0}:R \, {\in} N\, ({\mu=0}, {\sigma^2}=Constante)\]

\[H_{1}:R \, {\notin}\, N\, ({\mu=0}, {\sigma^2}<Constante)\]

#------------------Análisis Residual----------------#
normalidad=shapiro.test(resid(modelo))
print(normalidad)
## 
##  Shapiro-Wilk normality test
## 
## data:  resid(modelo)
## W = 0.8854, p-value = 0.002686
#-------------Gráfica de Probabiliad Normal-----------------#
qqnorm(resid(modelo), main= "Gráfica de Probabilidad para los Residuales del Modelo", xlab="Cuantiles Teoricos", ylab = "Cuantiles de muestra")
qqline(resid(modelo))

La prueba de Shapiro-Wilk confirma que mediante la gráfica de probabilidad para los residuales del modelo muestra con cierta evidencia que hay una falta de normalidad en lo que respecta a los residuos, por lo que se puede decir que existen datos atípicos en el modelo propuesto, los cuales provocan que no sea idóneo para explicar el número de fallas al momento de colocar los componentes.

Prueba Igualdad de Varianzas de Bartlett

\[H_{0}:\sigma^{2}_{i}=\sigma^{2}_{j}=Constante\]

\[H_{1}:\sigma^{2}_{i} \neq \sigma^{2}_{j}\neq Constante\]

homocedasticidad=bartlett.test(resid(modelo),f_factorA,f_factorB,f_factorC,f_factorD,data=experimento_resp)
print(homocedasticidad)
## 
##  Bartlett test of homogeneity of variances
## 
## data:  resid(modelo) and f_factorA
## Bartlett's K-squared = 2.0788, df = 1, p-value = 0.1494

En base a los resultados obtenidos por el análisis de homocedasticidad, estos son homocedásticos, ya que a pesar de que no tienen una normalidad su varianza es constante, por lo que se puede decir que el modelo de regresión no es el adecuado.

Bibliografia

Pulido, H. G., De la Vara Salazar, R., González, P. G., Martı́nez, C. T., & Pérez, M. del C. T. (2012). Análisis y diseño de experimentos. McGraw-Hill New York, NY, USA: