Ejercicio 9
En una empresa de electrónica, una máquina toma componentes que le proporciona un alimentador para montarlos o depositarlos en una tarjeta. Se ha tenido el problema de que la máquina falla en sus intentos por tomar el componente, lo cual causa paros de la máquina que detienen el proceso hasta que el operador se da cuenta y reinicia el proceso. Para diagnosticar mejor la situación, se decide correr un diseño de experimentos 24 con n = 2 réplicas, en el que se tienen los siguientes factores y niveles (–, +), respectivamente: A) Velocidad de cam (70%, 100%), B) Velocidad de mesa (media, alta), C) Orden o secuencia de colocación (continua, variable), D) Alimentador (1, 2). Como el proceso es muy rápido, es necesario dejarlo operar en cada condición experimental el tiempo sufi ciente para reproducir el problema. Se consideró que esto se lograba con suficiente confianza con 500 componentes; por ello, cada una de las corridas experimentales consistió en colocar 500 componentes, y se midieron dos variables de res puesta: Y1 = número de errores (o intentos fallidos), y Y2 = tiempo real (en segundos) para tomar y “colocar” los 500 componentes. Es evidente que se quieren minimizar ambas variables. Los datos obtenidos se muestran en la siguiente tabla.
| Factor_A | Factor_B | Factor_C | Factor_D | Y1 | Y2 | Y1 | Y2 |
|---|---|---|---|---|---|---|---|
| -1 | -1 | -1 | -1 | 61 | 88 | 50 | 79 |
| 1 | -1 | -1 | -1 | 105 | 78 | 98 | 74 |
| -1 | 1 | -1 | -1 | 61 | 82 | 40 | 82 |
| 1 | 1 | -1 | -1 | 104 | 73 | 145 | 79 |
| -1 | -1 | 1 | -1 | 0 | 88 | 35 | 100 |
| 1 | -1 | 1 | -1 | 35 | 84 | 22 | 82 |
| -1 | 1 | 1 | -1 | 50 | 89 | 37 | 88 |
| 1 | 1 | 1 | -1 | 57 | 79 | 71 | 81 |
| -1 | -1 | -1 | 1 | 12 | 77 | 19 | 75 |
| 1 | -1 | -1 | 1 | 60 | 66 | 57 | 65 |
| -1 | 1 | -1 | 1 | 9 | 84 | 19 | 73 |
| 1 | 1 | -1 | 1 | 72 | 93 | 61 | 66 |
| -1 | -1 | 1 | 1 | 0 | 86 | 0 | 82 |
| 1 | -1 | 1 | 1 | 10 | 76 | 1 | 77 |
| -1 | 1 | 1 | 1 | 3 | 84 | 7 | 86 |
| 1 | 1 | 1 | 1 | 15 | 75 | 15 | 73 |
Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caídos, como por ejemplo el (–1, –1, +1, +1); alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadístico. De proceder así, explique qué información se perdería.
Investigue qué efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).
Obtenga el mejor ANOVA.
SSi en el análisis anterior encuentra alguna interacción significativa, analice con detalle la más importante e interprete en términos físicos.
¿Qué tratamiento minimiza Y1?
Ahora investigue qué efectos influyen de manera relevante sobre Y2.
¿Qué tratamiento minimiza Y2?
Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.
De los análisis de varianza para Y1 y Y2 observe el coeficiente R2. ¿Qué concluye de ello?
Verifique residuos.
a) Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caídos, como por ejemplo el (–1, –1, +1, +1); alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadístico. De proceder así, explique qué información se perdería.
Al continuar de este modo se la información que perdería serían los resultados de qué factores afectan realmente, por lo que no se podrá encontrar un mejor método para explicar la manera en como influyen cada factor en las variables de respuesta, habria errores, debido a que no se conoceria los niveles en los que se deben trabajar los factores.
b) Investigue qué efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).
library(printr)
library(FrF2)
datos=read.table("dataset.txt",header = TRUE)
str(datos)
## 'data.frame': 32 obs. of 6 variables:
## $ Factor_A: int -1 1 -1 1 -1 1 -1 1 -1 1 ...
## $ Factor_B: int -1 -1 1 1 -1 -1 1 1 -1 -1 ...
## $ Factor_C: int -1 -1 -1 -1 1 1 1 1 -1 -1 ...
## $ Factor_D: int -1 -1 -1 -1 -1 -1 -1 -1 1 1 ...
## $ Y1 : int 61 105 61 104 0 35 50 57 12 60 ...
## $ Y2 : int 88 78 82 73 88 84 89 79 77 66 ...
View(datos)
attach(datos)
modelo1=lm(Y1~(Factor_A+Factor_B+Factor_C+Factor_D+Factor_A*Factor_B+Factor_A*Factor_C+Factor_A*Factor_D+Factor_B*Factor_C+Factor_B*Factor_D+Factor_C*Factor_D+Factor_A*Factor_B*Factor_C*Factor_D))
summary(modelo1)
##
## Call:
## lm.default(formula = Y1 ~ (Factor_A + Factor_B + Factor_C + Factor_D +
## Factor_A * Factor_B + Factor_A * Factor_C + Factor_A * Factor_D +
## Factor_B * Factor_C + Factor_B * Factor_D + Factor_C * Factor_D +
## Factor_A * Factor_B * Factor_C * Factor_D))
##
## Residuals:
## Min 1Q Median 3Q Max
## -20.500 -5.125 0.000 5.125 20.500
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 41.5937 2.0792 20.004 9.54e-13 ***
## Factor_A 16.4063 2.0792 7.891 6.63e-07 ***
## Factor_B 6.2813 2.0792 3.021 0.008117 **
## Factor_C -19.2188 2.0792 -9.243 8.12e-08 ***
## Factor_D -19.0937 2.0792 -9.183 8.87e-08 ***
## Factor_A:Factor_B 3.2187 2.0792 1.548 0.141163
## Factor_A:Factor_C -10.5312 2.0792 -5.065 0.000115 ***
## Factor_A:Factor_D -2.5313 2.0792 -1.217 0.241106
## Factor_B:Factor_C 3.2187 2.0792 1.548 0.141163
## Factor_B:Factor_D -3.6563 2.0792 -1.758 0.097779 .
## Factor_C:Factor_D 3.0937 2.0792 1.488 0.156214
## Factor_A:Factor_B:Factor_C -1.4687 2.0792 -0.706 0.490107
## Factor_A:Factor_B:Factor_D -1.4687 2.0792 -0.706 0.490107
## Factor_A:Factor_C:Factor_D 0.5313 2.0792 0.256 0.801591
## Factor_B:Factor_C:Factor_D -2.2187 2.0792 -1.067 0.301766
## Factor_A:Factor_B:Factor_C:Factor_D 0.8437 2.0792 0.406 0.690267
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 11.76 on 16 degrees of freedom
## Multiple R-squared: 0.9461, Adjusted R-squared: 0.8955
## F-statistic: 18.72 on 15 and 16 DF, p-value: 2.305e-07
modelo1=aov(modelo1)
summary(modelo1)
## Df Sum Sq Mean Sq F value Pr(>F)
## Factor_A 1 8613 8613 62.260 6.63e-07 ***
## Factor_B 1 1263 1263 9.126 0.008117 **
## Factor_C 1 11820 11820 85.436 8.12e-08 ***
## Factor_D 1 11666 11666 84.328 8.87e-08 ***
## Factor_A:Factor_B 1 332 332 2.396 0.141163
## Factor_A:Factor_C 1 3549 3549 25.654 0.000115 ***
## Factor_A:Factor_D 1 205 205 1.482 0.241106
## Factor_B:Factor_C 1 332 332 2.396 0.141163
## Factor_B:Factor_D 1 428 428 3.092 0.097779 .
## Factor_C:Factor_D 1 306 306 2.214 0.156214
## Factor_A:Factor_B:Factor_C 1 69 69 0.499 0.490107
## Factor_A:Factor_B:Factor_D 1 69 69 0.499 0.490107
## Factor_A:Factor_C:Factor_D 1 9 9 0.065 0.801591
## Factor_B:Factor_C:Factor_D 1 158 158 1.139 0.301766
## Factor_A:Factor_B:Factor_C:Factor_D 1 23 23 0.165 0.690267
## Residuals 16 2213 138
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Se puede observar observar con los resultados obtenidos del ANOVA de la variable Y1( Defectos), los efectos que son significativos son todos aquellos donde \(_Valor_p<0.05\),es decir el factor A, B,C,D y AC.
c) Obtenga el mejor ANOVA.
modelo=aov(Y1~(Factor_B+Factor_D+Factor_A*Factor_C))
anova=aov(modelo)
summary(anova)
## Df Sum Sq Mean Sq F value Pr(>F)
## Factor_B 1 1263 1263 7.923 0.00918 **
## Factor_D 1 11666 11666 73.212 4.90e-09 ***
## Factor_A 1 8613 8613 54.053 8.30e-08 ***
## Factor_C 1 11820 11820 74.174 4.32e-09 ***
## Factor_A:Factor_C 1 3549 3549 22.272 7.05e-05 ***
## Residuals 26 4143 159
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Se obtuvo que los efectos mas significativos en la variable de respuesta Y1, son los Factores A,B,C,D y AC, por lo tanto, se analiza de manera individual en las que son significativas, en esta tabla ANOVA se muestran que tan significativos son cada uno de los factores.
d) Si en el análisis anterior encuentra alguna interacción significativa, analice con detalle la más importante e interprete en términos físicos.
A continuación se muestran las gráficas para obtener un anális a detalle de la interacción significativa y factores significativos.
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(Factor_A=c(-1,1), Factor_B=c(-1,1), Factor_C=c(-1,1), Factor_D=c(-1,1) ),replications = 2,randomize = FALSE)
experimento_respuesta=add.response(design=experimento,response = Y1)
grafica_efectos_principales=MEPlot(experimento_respuesta, main= "Gráfica de Efectos Individuales")
Como se obseva en la gráfica, los factores mas significativos sobre la variable de respuesta son el factor A, C y D, a diferencia del factor B presenta una menor significancia.
e) ¿Qué tratamiento minimiza Y1?
Para minimizar a Y1 se debe trabajar el factor A en su nivel mas bajo a 70%, para el factor B es necesario trabajar en su nivel medio, en el caso del factor C se requiere del orden variable y el factor D en su nivel alto, es decir en el 2.
f) Ahora investigue qué efectos influyen de manera relevante sobre Y2.
modelo2=lm(Y2~(Factor_A+Factor_B+Factor_C+Factor_D+Factor_A*Factor_B+Factor_A*Factor_C+Factor_A*Factor_D+Factor_B*Factor_C+Factor_B*Factor_D+Factor_C*Factor_D+Factor_A*Factor_B*Factor_C*Factor_D))
summary(modelo2)
##
## Call:
## lm.default(formula = Y2 ~ (Factor_A + Factor_B + Factor_C + Factor_D +
## Factor_A * Factor_B + Factor_A * Factor_C + Factor_A * Factor_D +
## Factor_B * Factor_C + Factor_B * Factor_D + Factor_C * Factor_D +
## Factor_A * Factor_B * Factor_C * Factor_D))
##
## Residuals:
## Min 1Q Median 3Q Max
## -13.5 -1.0 0.0 1.0 13.5
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 80.0938 1.0685 74.962 < 2e-16 ***
## Factor_A -3.8437 1.0685 -3.597 0.00241 **
## Factor_B 0.3438 1.0685 0.322 0.75183
## Factor_C 3.0313 1.0685 2.837 0.01190 *
## Factor_D -2.7812 1.0685 -2.603 0.01922 *
## Factor_A:Factor_B 0.7812 1.0685 0.731 0.47523
## Factor_A:Factor_C -0.9063 1.0685 -0.848 0.40885
## Factor_A:Factor_D 0.2812 1.0685 0.263 0.79573
## Factor_B:Factor_C -1.5938 1.0685 -1.492 0.15525
## Factor_B:Factor_D 1.5937 1.0685 1.492 0.15525
## Factor_C:Factor_D -0.4688 1.0685 -0.439 0.66673
## Factor_A:Factor_B:Factor_C -0.9062 1.0685 -0.848 0.40885
## Factor_A:Factor_B:Factor_D 0.2813 1.0685 0.263 0.79573
## Factor_A:Factor_C:Factor_D -0.1562 1.0685 -0.146 0.88556
## Factor_B:Factor_C:Factor_D -0.7187 1.0685 -0.673 0.51074
## Factor_A:Factor_B:Factor_C:Factor_D -1.0313 1.0685 -0.965 0.34882
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 6.044 on 16 degrees of freedom
## Multiple R-squared: 0.6925, Adjusted R-squared: 0.4042
## F-statistic: 2.402 on 15 and 16 DF, p-value: 0.04609
modelo2=aov(modelo2)
summary(modelo2)
## Df Sum Sq Mean Sq F value Pr(>F)
## Factor_A 1 472.8 472.8 12.942 0.00241 **
## Factor_B 1 3.8 3.8 0.104 0.75183
## Factor_C 1 294.0 294.0 8.049 0.01190 *
## Factor_D 1 247.5 247.5 6.776 0.01922 *
## Factor_A:Factor_B 1 19.5 19.5 0.535 0.47523
## Factor_A:Factor_C 1 26.3 26.3 0.719 0.40885
## Factor_A:Factor_D 1 2.5 2.5 0.069 0.79573
## Factor_B:Factor_C 1 81.3 81.3 2.225 0.15525
## Factor_B:Factor_D 1 81.3 81.3 2.225 0.15525
## Factor_C:Factor_D 1 7.0 7.0 0.192 0.66673
## Factor_A:Factor_B:Factor_C 1 26.3 26.3 0.719 0.40885
## Factor_A:Factor_B:Factor_D 1 2.5 2.5 0.069 0.79573
## Factor_A:Factor_C:Factor_D 1 0.8 0.8 0.021 0.88556
## Factor_B:Factor_C:Factor_D 1 16.5 16.5 0.453 0.51074
## Factor_A:Factor_B:Factor_C:Factor_D 1 34.0 34.0 0.932 0.34882
## Residuals 16 584.5 36.5
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
De acuerdo a la tabla ANOVA, los factores mas significativos en Y2, son el factor A (velocidad de cam), factor C (orden o secuencia de colocacion) y factor D (alimentador).
g) ¿Qué tratamiento minimiza Y2?
library(FrF2)
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(Factor_A=c(-1,1), Factor_B=c(-1,1), Factor_C=c(-1,1), Factor_D=c(-1,1) ),replications = 2,randomize = FALSE)
experimento_respuesta=add.response(design=experimento,response = Y2)
grafica_efectos_principales=MEPlot(experimento_respuesta, main= "Gráfica de Efectos Individuales")
Se observa en la grafica que los factores significativos sobre la variable de respuesta Y2 son el factor A,C y D. El factor A debe de ser alto , para el factor B ser en su nivel bajo , el factor C, se debe trabajaese en el nivel bajo y finalmente el factor D, se debe trabajar en el nivel alto para minimizar el tiempo real en segundos.
h) Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.
Condición satisfactoria para Y1 donde se requiere minimizar el número de errores: A,B,C,D=(-,-,+,+)
Condición satisfactoria para Y2 donde se requiere minimizar el tiempo en segundos: A,B,C,D=(+,-,-,+)
i) De los análisis de varianza para Y1 y Y2 observe el coeficiente R2. ¿Qué concluye de ello?
El coeficiente \(R^2\) para Y1 y Y2 es 0.9461 y 0.6925 respectivamente. Para Y1 el \(R^2\), es alto lo cual significa que el modelo es bueno para predecir, ya que su valor es muy cercano a 1 y por lo tanto es un valor alto. Por otra parte, para Y2 el valor es bajo por lo que el modelo es malo para predecir los datos.
j) Verifique residuos.
Prueba de normalidad de los residuos de Shapiro-Wilks
La prueba de normalidad de los residuos de Shapiro-Wilks, plantea las siguientes hipotesis:
\[{H_0}={X∈N}{(μ=0,σ^2=Constante)}\]
\[{H_0}={X∉N}{(μ=0,σ^2=Constante)}\]
normalidad=shapiro.test(resid(modelo1))
print(normalidad)
##
## Shapiro-Wilk normality test
##
## data: resid(modelo1)
## W = 0.96651, p-value = 0.4091
normalidad=shapiro.test(resid(modelo2))
print(normalidad)
##
## Shapiro-Wilk normality test
##
## data: resid(modelo2)
## W = 0.8854, p-value = 0.002686
Hipotesis nula de la Prueba de Shapiro-Wilks se rechaza cuando el Valorp<0.05
El \(valor_p= 0.4091\) para Y1 por lo que se acepta la Hipotesis nula, es decir los residuos tienen una distribucion normal.
El \(valor_p= 0.002686\) para Y2 por lo que se rechaza la Hipotesis nula, es decir no hay normalidad en los residuos.
Prueba Igualdad de Varianzas de Bartlett
La prueba de homocedasticidad o de varianzas iguales, se realiza mediante la Prueba de Bartlett. La Prueba de Bartlett tiene las siguientes hipótesis:
\[{H_0}:σ_i^2=σ_j^2=Constante\]
\[{H_1}:σ_i^2 \neq σ_j^2\neq Constante\]
homocedasticidad=bartlett.test(resid(modelo1),Factor_A,Factor_B,Factor_C, Factor_D,data=experimento_resp)
print(homocedasticidad)
##
## Bartlett test of homogeneity of variances
##
## data: resid(modelo1) and Factor_A
## Bartlett's K-squared = 0.025372, df = 1, p-value = 0.8734
homocedasticidad=bartlett.test(resid(modelo2),Factor_A,Factor_B,Factor_C, Factor_D,data=experimento_resp)
print(homocedasticidad)
##
## Bartlett test of homogeneity of variances
##
## data: resid(modelo2) and Factor_A
## Bartlett's K-squared = 2.0788, df = 1, p-value = 0.1494
Para Y1 el \(Valor_p=0.8734\), por lo tanto se acepta la hipótesis nula y se dice que hay igualdad de varianzas.
Para Y2 el \(Valor_p=0.1494\),por lo tanto se acepta la hipótesis nula y se dice que hay igualdad de varianzas. Sin embargo, el modelo no es adecuado para analizar ambas variables ya que no cuenta con normalidad en sus residuos.