Ejercicio 9
En una empresa de electrónica, una máquina toma componentes que le proporciona un alimentador para montarlos o depositarlos en una tarjeta. Se ha tenido el problema de que la máquina falla en sus intentos por tomar el componente, lo cual causa paros de la máquina que detienen el proceso hasta que el operador se da cuenta y reinicia el proceso. Para diagnosticar mejor la situación, se decide correr un diseño de experimentos \(2^4\) con \(n= 2\) réplicas, en el que se tienen los siguientes factores y niveles (–, +), respectivamente: A) Velocidad de cam (70%, 100%), B) Velocidad de mesa (media, alta), C) Orden o secuencia de colocación (continua, variable), D) Alimentador (1, 2). Como el proceso es muy rápido, es necesario dejarlo operar en cada condición experimental el tiempo suficiente para reproducir el problema. Se consideró que esto se lograba con suficiente confianza con 500 componentes; por ello, cada una de las corridas experimentales consistió en colocar 500 componentes, y se midieron dos variables de respuesta: Y1 = número de errores (o intentos fallidos), y Y2 = tiempo real (en segundos) para tomar y “colocar” los 500 componentes. Es evidente que se quieren minimizar ambas variables. Los datos obtenidos se muestran en la siguiente tabla.
| Factor_A | Factor_B | Factor_C | Factor_D | Y1 | Y2 | Y1 | Y2 |
|---|---|---|---|---|---|---|---|
| -1 | -1 | -1 | -1 | 61 | 88 | 50 | 79 |
| 1 | -1 | -1 | -1 | 105 | 78 | 98 | 74 |
| -1 | 1 | -1 | -1 | 61 | 82 | 40 | 82 |
| 1 | 1 | -1 | -1 | 104 | 73 | 145 | 79 |
| -1 | -1 | 1 | -1 | 0 | 88 | 35 | 100 |
| 1 | -1 | 1 | -1 | 35 | 84 | 22 | 82 |
| -1 | 1 | 1 | -1 | 50 | 89 | 37 | 88 |
| 1 | 1 | 1 | -1 | 57 | 79 | 71 | 81 |
| -1 | -1 | -1 | 1 | 12 | 77 | 19 | 75 |
| 1 | -1 | -1 | 1 | 60 | 66 | 57 | 65 |
| -1 | 1 | -1 | 1 | 9 | 84 | 19 | 73 |
| 1 | 1 | -1 | 1 | 72 | 93 | 61 | 66 |
| -1 | -1 | 1 | 1 | 0 | 86 | 0 | 82 |
| 1 | -1 | 1 | 1 | 10 | 76 | 1 | 77 |
| -1 | 1 | 1 | 1 | 3 | 84 | 7 | 86 |
| 1 | 1 | 1 | 1 | 15 | 75 | 15 | 73 |
Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caídos, como por ejemplo el (–1, –1, +1, +1); alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadístico. De proceder así, explique qué información se perdería.
Investigue qué efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).
Obtenga el mejor ANOVA.
Si en el análisis anterior encuentra alguna interacción significativa, analice con detalle la más importante e interprete en términos físicos.
¿Qué tratamiento minimiza Y1?
Ahora investigue qué efectos influyen de manera relevante sobre Y2.
¿Qué tratamiento minimiza Y2?
Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.
De los análisis de varianza para Y1 y Y2 observe el coeficiente \(R^2\). ¿Qué concluye de ello?
Verifique residuos.
a) Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caídos, como por ejemplo el (–1, –1, +1, +1); alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadístico. De proceder así, explique qué información se perdería.
Al continuar de esta manera se perderia informacion importante, por lo tanto no podra encontrar el mejor metodo para explicar la manera en como influyen cada factor en las variables de respuesta, habria errores, debido a que no se conoceria los niveles en los que se deben trabajar los factores.
b) Investigue qué efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).
library(printr)
library(FrF2)
datos=read.table("dataset.txt",header = TRUE)
str(datos)
## 'data.frame': 32 obs. of 6 variables:
## $ Factor_A: int -1 1 -1 1 -1 1 -1 1 -1 1 ...
## $ Factor_B: int -1 -1 1 1 -1 -1 1 1 -1 -1 ...
## $ Factor_C: int -1 -1 -1 -1 1 1 1 1 -1 -1 ...
## $ Factor_D: int -1 -1 -1 -1 -1 -1 -1 -1 1 1 ...
## $ Y1 : int 61 105 61 104 0 35 50 57 12 60 ...
## $ Y2 : int 88 78 82 73 88 84 89 79 77 66 ...
View(datos)
attach(datos)
modelo1=lm(Y1~(Factor_A+Factor_B+Factor_C+Factor_D+Factor_A*Factor_B+Factor_A*Factor_C+Factor_A*Factor_D+Factor_B*Factor_C+Factor_B*Factor_D+Factor_C*Factor_D+Factor_A*Factor_B*Factor_C*Factor_D))
summary(modelo1)
##
## Call:
## lm.default(formula = Y1 ~ (Factor_A + Factor_B + Factor_C + Factor_D +
## Factor_A * Factor_B + Factor_A * Factor_C + Factor_A * Factor_D +
## Factor_B * Factor_C + Factor_B * Factor_D + Factor_C * Factor_D +
## Factor_A * Factor_B * Factor_C * Factor_D))
##
## Residuals:
## Min 1Q Median 3Q Max
## -20.500 -5.125 0.000 5.125 20.500
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 41.5937 2.0792 20.004 9.54e-13 ***
## Factor_A 16.4063 2.0792 7.891 6.63e-07 ***
## Factor_B 6.2813 2.0792 3.021 0.008117 **
## Factor_C -19.2188 2.0792 -9.243 8.12e-08 ***
## Factor_D -19.0937 2.0792 -9.183 8.87e-08 ***
## Factor_A:Factor_B 3.2187 2.0792 1.548 0.141163
## Factor_A:Factor_C -10.5312 2.0792 -5.065 0.000115 ***
## Factor_A:Factor_D -2.5313 2.0792 -1.217 0.241106
## Factor_B:Factor_C 3.2187 2.0792 1.548 0.141163
## Factor_B:Factor_D -3.6563 2.0792 -1.758 0.097779 .
## Factor_C:Factor_D 3.0937 2.0792 1.488 0.156214
## Factor_A:Factor_B:Factor_C -1.4687 2.0792 -0.706 0.490107
## Factor_A:Factor_B:Factor_D -1.4687 2.0792 -0.706 0.490107
## Factor_A:Factor_C:Factor_D 0.5313 2.0792 0.256 0.801591
## Factor_B:Factor_C:Factor_D -2.2187 2.0792 -1.067 0.301766
## Factor_A:Factor_B:Factor_C:Factor_D 0.8437 2.0792 0.406 0.690267
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 11.76 on 16 degrees of freedom
## Multiple R-squared: 0.9461, Adjusted R-squared: 0.8955
## F-statistic: 18.72 on 15 and 16 DF, p-value: 2.305e-07
modelo1=aov(modelo1)
summary(modelo1)
## Df Sum Sq Mean Sq F value Pr(>F)
## Factor_A 1 8613 8613 62.260 6.63e-07 ***
## Factor_B 1 1263 1263 9.126 0.008117 **
## Factor_C 1 11820 11820 85.436 8.12e-08 ***
## Factor_D 1 11666 11666 84.328 8.87e-08 ***
## Factor_A:Factor_B 1 332 332 2.396 0.141163
## Factor_A:Factor_C 1 3549 3549 25.654 0.000115 ***
## Factor_A:Factor_D 1 205 205 1.482 0.241106
## Factor_B:Factor_C 1 332 332 2.396 0.141163
## Factor_B:Factor_D 1 428 428 3.092 0.097779 .
## Factor_C:Factor_D 1 306 306 2.214 0.156214
## Factor_A:Factor_B:Factor_C 1 69 69 0.499 0.490107
## Factor_A:Factor_B:Factor_D 1 69 69 0.499 0.490107
## Factor_A:Factor_C:Factor_D 1 9 9 0.065 0.801591
## Factor_B:Factor_C:Factor_D 1 158 158 1.139 0.301766
## Factor_A:Factor_B:Factor_C:Factor_D 1 23 23 0.165 0.690267
## Residuals 16 2213 138
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Como se puede observar en la tabla ANOVA, los efectos que son significativos en la variable de respueta numero de errores (Y1) son todos aquellos donde \(_Valor_p<0.05\),es decir el factor A, B,C,D y AC.
c) Obtenga el mejor ANOVA.
modelo=aov(Y1~(Factor_B+Factor_D+Factor_A*Factor_C))
anova=aov(modelo)
summary(anova)
## Df Sum Sq Mean Sq F value Pr(>F)
## Factor_B 1 1263 1263 7.923 0.00918 **
## Factor_D 1 11666 11666 73.212 4.90e-09 ***
## Factor_A 1 8613 8613 54.053 8.30e-08 ***
## Factor_C 1 11820 11820 74.174 4.32e-09 ***
## Factor_A:Factor_C 1 3549 3549 22.272 7.05e-05 ***
## Residuals 26 4143 159
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Se obtuvo que los efectos mas significativos en la variable de respuesta Y1, son los Factores A,B,C,D y AC, por lo tanto, se analiza de manera individual en las que son significativas, en esta tabla anova se muestran que tan significativos son cada uno de los factores.
d) Si en el análisis anterior encuentra alguna interacción significativa, analice con detalle la más importante e interprete en términos físicos.
Para analizar a detalle la interaccion mas importante encontrada en el analisis anterior se realiza lo siguiente.
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(Factor_A=c(-1,1), Factor_B=c(-1,1), Factor_C=c(-1,1), Factor_D=c(-1,1) ),replications = 2,randomize = FALSE)
experimento_respuesta=add.response(design=experimento,response = Y1)
grafica_efectos_principales=MEPlot(experimento_respuesta, main= "Gráfica de Efectos Individuales")
Se obtiene que el factor mas significativo sobre la variable de respuesta es el factor A, ya que es el que produce un mayor numero de errores cuando esta en el nivel alto, tambien se observa que el factor B con nivel alto anumenta un poco el numero de errores. Con respecto a el factor C y D se observa que reducen el numero de errores cuando se trabajan en el nivel alto.
e) ¿Qué tratamiento minimiza Y1?
Para minimizar a Y1 de debe trabajar el factor A en su nivel mas bajo a 70%, para el factor B es necesario trabajar en su nivel bajo a media, en el caso del factor C se recomienda el nivel alto el orden debera ser variable y el factor D en su nivel alto, es decir en el 2.
f) Ahora investigue qué efectos influyen de manera relevante sobre Y2.
Para estudiar los factores con respecto a la variable de respuesta Y2, se realiza lo siguiente:
modelo2=lm(Y2~(Factor_A+Factor_B+Factor_C+Factor_D+Factor_A*Factor_B+Factor_A*Factor_C+Factor_A*Factor_D+Factor_B*Factor_C+Factor_B*Factor_D+Factor_C*Factor_D+Factor_A*Factor_B*Factor_C*Factor_D))
summary(modelo2)
##
## Call:
## lm.default(formula = Y2 ~ (Factor_A + Factor_B + Factor_C + Factor_D +
## Factor_A * Factor_B + Factor_A * Factor_C + Factor_A * Factor_D +
## Factor_B * Factor_C + Factor_B * Factor_D + Factor_C * Factor_D +
## Factor_A * Factor_B * Factor_C * Factor_D))
##
## Residuals:
## Min 1Q Median 3Q Max
## -13.5 -1.0 0.0 1.0 13.5
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 80.0938 1.0685 74.962 < 2e-16 ***
## Factor_A -3.8437 1.0685 -3.597 0.00241 **
## Factor_B 0.3438 1.0685 0.322 0.75183
## Factor_C 3.0313 1.0685 2.837 0.01190 *
## Factor_D -2.7812 1.0685 -2.603 0.01922 *
## Factor_A:Factor_B 0.7812 1.0685 0.731 0.47523
## Factor_A:Factor_C -0.9063 1.0685 -0.848 0.40885
## Factor_A:Factor_D 0.2812 1.0685 0.263 0.79573
## Factor_B:Factor_C -1.5938 1.0685 -1.492 0.15525
## Factor_B:Factor_D 1.5937 1.0685 1.492 0.15525
## Factor_C:Factor_D -0.4688 1.0685 -0.439 0.66673
## Factor_A:Factor_B:Factor_C -0.9062 1.0685 -0.848 0.40885
## Factor_A:Factor_B:Factor_D 0.2813 1.0685 0.263 0.79573
## Factor_A:Factor_C:Factor_D -0.1562 1.0685 -0.146 0.88556
## Factor_B:Factor_C:Factor_D -0.7187 1.0685 -0.673 0.51074
## Factor_A:Factor_B:Factor_C:Factor_D -1.0313 1.0685 -0.965 0.34882
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 6.044 on 16 degrees of freedom
## Multiple R-squared: 0.6925, Adjusted R-squared: 0.4042
## F-statistic: 2.402 on 15 and 16 DF, p-value: 0.04609
modelo2=aov(modelo2)
summary(modelo2)
## Df Sum Sq Mean Sq F value Pr(>F)
## Factor_A 1 472.8 472.8 12.942 0.00241 **
## Factor_B 1 3.8 3.8 0.104 0.75183
## Factor_C 1 294.0 294.0 8.049 0.01190 *
## Factor_D 1 247.5 247.5 6.776 0.01922 *
## Factor_A:Factor_B 1 19.5 19.5 0.535 0.47523
## Factor_A:Factor_C 1 26.3 26.3 0.719 0.40885
## Factor_A:Factor_D 1 2.5 2.5 0.069 0.79573
## Factor_B:Factor_C 1 81.3 81.3 2.225 0.15525
## Factor_B:Factor_D 1 81.3 81.3 2.225 0.15525
## Factor_C:Factor_D 1 7.0 7.0 0.192 0.66673
## Factor_A:Factor_B:Factor_C 1 26.3 26.3 0.719 0.40885
## Factor_A:Factor_B:Factor_D 1 2.5 2.5 0.069 0.79573
## Factor_A:Factor_C:Factor_D 1 0.8 0.8 0.021 0.88556
## Factor_B:Factor_C:Factor_D 1 16.5 16.5 0.453 0.51074
## Factor_A:Factor_B:Factor_C:Factor_D 1 34.0 34.0 0.932 0.34882
## Residuals 16 584.5 36.5
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Se obtiene en la tabla ANOVA, que los factores mas significativos que influeyen en Y2, son aquellos donde \(Valor_p<0.05\). Por lo tato se dice que el factor A (velocidad de cam), factor C (orden o secuencia de colocacion) y factor D (alimentador), son los mas significativos sobre el tiempo real en segundos (Y2).
g) ¿Qué tratamiento minimiza Y2?
library(FrF2)
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(Factor_A=c(-1,1), Factor_B=c(-1,1), Factor_C=c(-1,1), Factor_D=c(-1,1) ),replications = 2,randomize = FALSE)
experimento_respuesta=add.response(design=experimento,response = Y2)
grafica_efectos_principales=MEPlot(experimento_respuesta, main= "Gráfica de Efectos Individuales")
Se observa que los factores significativos sobre la variable de respuesta Y2 son el factor A,C y D. El factor A se debe trabajar en su nivel alto (100%), para el factor B es necesario que se trabaje en su nivel bajo (media). En el caso del factor C, se debe trabajar en el nivel bajo (conitua) y finalmente el factor D, se debe trabajar en el nivel alto (2) para minimizar el tiempo real en segundos.
h) Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.
Condición satisfactoria para Y1 donde se requiere minimizar el numero de errores: A,B,C,D=(-,-,+,+)
Condición satisfactoria para Y2 donde se requiere minimizar el tiempo en segundos: A,B,C,D=(+,-,-,+)
i) De los análisis de varianza para Y1 y Y2 observe el coeficiente \(R^2\). ¿Qué concluye de ello?
El coeficiente \(R^2\) para Y1 y Y2 es 0.9461 y 0.6925 respectivamente, el coeficiente \(R^2\) indica la capacidad que poseen los datos para ajustarse y predecir la variable de respuesta, si el valor de \(R^2\) es mayor significa que el modelo explica de manera adecuada como influyen los factores en la variable de respuesta y si el valor es menor significa que el modelo no ajuata ni da a conocer como influyen los factores en la variable.En este caso el valor para Y1 del \(R^2\) significa que el modelo es el adecuado, ya que su valor es muy cercano a 1 y por lo tanto es un valor grande. Por otra parte, para Y2 el valor es menor y se dice que no es muy adecuado.
j) Verifique residuos.
Prueba de normalidad de los residuos de Shapiro-Wilks
La prueba de normalidad de los residuos de Shapiro-Wilks, plantea las siguientes hipotesis:
\[{H_0}={x∈N}{(μ=0,σ^2=Constante)}\]
\[{H_1}={x\notin N}{(μ=0,σ^2=Constante)}\]
normalidad=shapiro.test(resid(modelo1))
print(normalidad)
##
## Shapiro-Wilk normality test
##
## data: resid(modelo1)
## W = 0.96651, p-value = 0.4091
normalidad=shapiro.test(resid(modelo2))
print(normalidad)
##
## Shapiro-Wilk normality test
##
## data: resid(modelo2)
## W = 0.8854, p-value = 0.002686
Los resultados obtenidos para la prueba de Shapiro-Wilk para Y1 son que el \(valor_p>0.05\), ya que es igual a 0.4091, por lo tanto se aceptan la Hipotesis nula, es decir que los residuos tienen una distribucion normal,con \((μ=0,σ^2=Constante)\).
Los resultados obtenidos para la prueba de Shapiro-Wilk para Y2 son que el \(valor_p<0.05\) ya que es igual a 0.0026, por lo tanto se rechaza la Hipotesis nula, es decir que los residuos no tienen distribucion normal,con \((μ=0,σ^2=Constante)\). Esto indica que el modelo no es el adecuado para explicar el numero de errores en función de los factores velocidad de cam (A), velocidad de mesa (B), orden o sevcuencia de colocacion (C) y alimentador(D).
Prueba Igualdad de Varianzas de Bartlett
La prueba de homocedasticidad o de varianzas iguales, se realiza mediante la Prueba de Bartlett. La Prueba de Bartlett tiene las siguientes hipótesis:
\[{H_0}:σ_i^2=σ_j^2=Constante\]
\[{H_1}:σ_i^2 \neq σ_j^2\neq Constante\]
homocedasticidad=bartlett.test(resid(modelo1),Factor_A,Factor_B,Factor_C, Factor_D,data=experimento_resp)
print(homocedasticidad)
##
## Bartlett test of homogeneity of variances
##
## data: resid(modelo1) and Factor_A
## Bartlett's K-squared = 0.025372, df = 1, p-value = 0.8734
homocedasticidad=bartlett.test(resid(modelo2),Factor_A,Factor_B,Factor_C, Factor_D,data=experimento_resp)
print(homocedasticidad)
##
## Bartlett test of homogeneity of variances
##
## data: resid(modelo2) and Factor_A
## Bartlett's K-squared = 2.0788, df = 1, p-value = 0.1494
En el caso Y1, se obtiene un \(Valor_p>0.05\) es decir que es igual a 0.8734, por lo tanto, acepta la hipótesis nula y se dice que hay igualdad de varianzas. Esto indica que el modelo es el adecuado para explicar el numero de errores en función de los factores velocidad de cam (A), velocidad de mesa (B), orden o secuencia de colocacion (C) y alimentador(D).
En el caso Y2, se se obtiene un \(Valor_p>0.05\) ya que es igual a 0.1494, por lo tanto, acepta la hipótesis nula y se dice que hay igualdad de varianzas. Sin embargo, el modelo no pasa las 2 pruebas, por lo tanto el modelo no es el adecuado para explocar los efectos de los factores sobre la variable de respuesta.