Réplica 1 | Réplica 2 | ||||||
---|---|---|---|---|---|---|---|
Factor A | Factor B | Factor C | Factor D | Y1 | Y2 | Y3 | Y4 |
-1 | -1 | -1 | -1 | 61 | 88 | 50 | 79 |
1 | -1 | -1 | -1 | 105 | 78 | 98 | 74 |
-1 | 1 | -1 | -1 | 61 | 82 | 40 | 82 |
1 | 1 | -1 | -1 | 104 | 73 | 145 | 79 |
-1 | -1 | 1 | -1 | 0 | 88 | 35 | 100 |
1 | -1 | 1 | -1 | 35 | 84 | 22 | 82 |
-1 | 1 | 1 | -1 | 50 | 89 | 37 | 88 |
1 | 1 | 1 | -1 | 57 | 79 | 71 | 81 |
-1 | -1 | -1 | 1 | 12 | 77 | 19 | 75 |
1 | -1 | -1 | 1 | 60 | 66 | 57 | 64 |
-1 | 1 | -1 | 1 | 9 | 84 | 19 | 73 |
1 | 1 | -1 | 1 | 72 | 93 | 61 | 66 |
-1 | -1 | 1 | 1 | 0 | 86 | 0 | 82 |
1 | -1 | 1 | 1 | 10 | 76 | 1 | 77 |
-1 | 1 | 1 | 1 | 3 | 84 | 7 | 86 |
1 | 1 | 1 | 1 | 15 | 75 | 15 | 73 |
a) Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caído, como por ejemplo el (-1,-1,+1,+1): alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadistico. De proceder así, explique que información se perdería.
b) Investigue que efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).
c) Obtenga el mejor ANOVA.
d) Si en el análisis anterior encuentra alguna interacción significativa, analice con detalle la más importante e interprete en términos físicos.
e) ¿Qué tratamiento minimiza Y1?
f) Ahora investigue qué efectos influyen de manera relevante sobre Y2.
g) ¿Qué tratamiento minimiza Y2?
h) Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.
i) De los análisis de varianza para Y1 y Y2 observe el coeficiente \(R^2\). ¿Qué concluye de ello?
j) Verifique residuos.
a) Al observar los datos obtenidos, se deduce que hay algunos tratamientos que tienen pocos o ningún componente caído, como por ejemplo el (-1,-1,+1,+1); alguien muy “práctico” decidiría poner la máquina a operar bajo estas condiciones y olvidarse del análisis estadistico. De proceder así, explique que información se perdería.
En este caso, se perdería el tiempo que tarda en colocar los componentes en la situación de no poseer un buen desempeño en la prueba. Ademas de que si se sigue de esta manera se omitiria información importante y seria riesgoso ya que no se sabria con exactitud si esta condicion es optima en el proceso.
b) Investigue que efectos influyen de manera significativa sobre Y1 (apóyese en Pareto y ANOVA).
#-------------Adquisición de datos-------------#
library(AlgDesign)
library(lattice)
library(printr)
library(FrF2)
library(qcc)
datos=read.table("dataset2.txt", header = TRUE)
str(datos)
## 'data.frame': 32 obs. of 6 variables:
## $ FactorA : int -1 1 -1 1 -1 1 -1 1 -1 1 ...
## $ FactorB : int -1 -1 1 1 -1 -1 1 1 -1 -1 ...
## $ FactorC : int -1 -1 -1 -1 1 1 1 1 -1 -1 ...
## $ FactorD : int -1 -1 -1 -1 -1 -1 -1 -1 1 1 ...
## $ Replica_Y1: int 61 105 61 104 0 35 50 57 12 60 ...
## $ Replica_Y2: int 88 78 82 73 88 84 89 79 77 66 ...
View(datos)
attach(datos)
Modelo matemático
\[\hat{y}_{ijkl}=\mu*\tau_{i}*\beta_{j}*\gamma_{k}*\lambda_{l}*\]
#------------Modelo matemático-----------#
f_factorA=factor(`FactorA`)
f_factorB=factor(`FactorB`)
f_factorC=factor(`FactorC`)
f_factorD=factor(`FactorD`)
head(datos, n= 256L)
FactorA | FactorB | FactorC | FactorD | Replica_Y1 | Replica_Y2 |
---|---|---|---|---|---|
-1 | -1 | -1 | -1 | 61 | 88 |
1 | -1 | -1 | -1 | 105 | 78 |
-1 | 1 | -1 | -1 | 61 | 82 |
1 | 1 | -1 | -1 | 104 | 73 |
-1 | -1 | 1 | -1 | 0 | 88 |
1 | -1 | 1 | -1 | 35 | 84 |
-1 | 1 | 1 | -1 | 50 | 89 |
1 | 1 | 1 | -1 | 57 | 79 |
-1 | -1 | -1 | 1 | 12 | 77 |
1 | -1 | -1 | 1 | 60 | 66 |
-1 | 1 | -1 | 1 | 9 | 84 |
1 | 1 | -1 | 1 | 72 | 93 |
-1 | -1 | 1 | 1 | 0 | 86 |
1 | -1 | 1 | 1 | 10 | 76 |
-1 | 1 | 1 | 1 | 3 | 84 |
1 | 1 | 1 | 1 | 15 | 75 |
-1 | -1 | -1 | -1 | 50 | 79 |
1 | -1 | -1 | -1 | 98 | 74 |
-1 | 1 | -1 | -1 | 40 | 82 |
1 | 1 | -1 | -1 | 145 | 79 |
-1 | -1 | 1 | -1 | 35 | 100 |
1 | -1 | 1 | -1 | 22 | 82 |
-1 | 1 | 1 | -1 | 37 | 88 |
1 | 1 | 1 | -1 | 71 | 81 |
-1 | -1 | -1 | 1 | 19 | 75 |
1 | -1 | -1 | 1 | 57 | 64 |
-1 | 1 | -1 | 1 | 19 | 73 |
1 | 1 | -1 | 1 | 61 | 66 |
-1 | -1 | 1 | 1 | 0 | 82 |
1 | -1 | 1 | 1 | 1 | 77 |
-1 | 1 | 1 | 1 | 7 | 86 |
1 | 1 | 1 | 1 | 15 | 73 |
modelo=aov(Replica_Y1~(FactorA*FactorB*FactorC*FactorD))
summary(modelo)
## Df Sum Sq Mean Sq F value Pr(>F)
## FactorA 1 8613 8613 62.260 6.63e-07 ***
## FactorB 1 1263 1263 9.126 0.008117 **
## FactorC 1 11820 11820 85.436 8.12e-08 ***
## FactorD 1 11666 11666 84.328 8.87e-08 ***
## FactorA:FactorB 1 332 332 2.396 0.141163
## FactorA:FactorC 1 3549 3549 25.654 0.000115 ***
## FactorB:FactorC 1 332 332 2.396 0.141163
## FactorA:FactorD 1 205 205 1.482 0.241106
## FactorB:FactorD 1 428 428 3.092 0.097779 .
## FactorC:FactorD 1 306 306 2.214 0.156214
## FactorA:FactorB:FactorC 1 69 69 0.499 0.490107
## FactorA:FactorB:FactorD 1 69 69 0.499 0.490107
## FactorA:FactorC:FactorD 1 9 9 0.065 0.801591
## FactorB:FactorC:FactorD 1 158 158 1.139 0.301766
## FactorA:FactorB:FactorC:FactorD 1 23 23 0.165 0.690267
## Residuals 16 2213 138
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Los resultados que se muestran en la tabla ANOVA del inciso se observa que existen efectos significativos, ya que de acuerdo con el valor de \(\alpha=0.05\) el \(Valor_{p}<\alpha\) y estos arrojan un valor menor a este, ya sea individualmente o en interacción con otros, los cuales como se puede ver en los resultados de la tabla, los efectos que influyen de manera significativa son el A, B, C, D y una interaccion entre AC.
c) Obtenga el mejor ANOVA.
modelo1=aov(Replica_Y1~(FactorB+FactorD+FactorA*FactorC))
anova=aov(modelo1)
summary(anova)
## Df Sum Sq Mean Sq F value Pr(>F)
## FactorB 1 1263 1263 7.923 0.00918 **
## FactorD 1 11666 11666 73.212 4.90e-09 ***
## FactorA 1 8613 8613 54.053 8.30e-08 ***
## FactorC 1 11820 11820 74.174 4.32e-09 ***
## FactorA:FactorC 1 3549 3549 22.272 7.05e-05 ***
## Residuals 26 4143 159
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
La tabla mejorada de anova muestra los datos en orden y los que no son significativos, por lo que nos muestra una tabla resumida.
d) Si en el análisis anterior encuentra alguna interacción significativa, analice con detalle la más importante e interprete en términos físicos.
#--------------Gráfica de efectos individuales----------#
library(printr)
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(FactorA=c(-1,1), FactorB=c(-1,1), FactorC=c(-1,1), FactorD=c(-1,1) ),replications = 2,randomize = FALSE)
experimento_resp=add.response(design = experimento,response = Replica_Y1)
grafica_efectos_principales=MEPlot(experimento_resp, main= "Gráfica de Efectos Individuales")
#------------Gráfica de interacciones--------#
grafica_interacciones=IAPlot(experimento_resp, main= "Gráfica de Interacciones")
Como se puede observar, hay un valor que destaca más, que en este caso es la interacción entre los factores AC, ya que como se pued eobservar en las grafica individualmente, tanto A como C tiene una pendiente mas pronunciada a comparación de las demás.
e) ¿Qué tratamiento minimiza Y1?
Ya que los cuatro factores A, B, C, D son significativos para la variable de respuesta, es necesario trabajar con los niveles de estos.Por lo que para el factor A y B se trabajara con niveles altos, mientras que C y D con niveles bajos, por ejemplo (-1,-1,1,1).
f) Ahora investigue qué efectos influyen de manera relevante sobre Y2.
modelo=aov(Replica_Y2~(FactorA*FactorB*FactorC*FactorD))
summary(modelo)
## Df Sum Sq Mean Sq F value Pr(>F)
## FactorA 1 472.8 472.8 12.942 0.00241 **
## FactorB 1 3.8 3.8 0.104 0.75183
## FactorC 1 294.0 294.0 8.049 0.01190 *
## FactorD 1 247.5 247.5 6.776 0.01922 *
## FactorA:FactorB 1 19.5 19.5 0.535 0.47523
## FactorA:FactorC 1 26.3 26.3 0.719 0.40885
## FactorB:FactorC 1 81.3 81.3 2.225 0.15525
## FactorA:FactorD 1 2.5 2.5 0.069 0.79573
## FactorB:FactorD 1 81.3 81.3 2.225 0.15525
## FactorC:FactorD 1 7.0 7.0 0.192 0.66673
## FactorA:FactorB:FactorC 1 26.3 26.3 0.719 0.40885
## FactorA:FactorB:FactorD 1 2.5 2.5 0.069 0.79573
## FactorA:FactorC:FactorD 1 0.8 0.8 0.021 0.88556
## FactorB:FactorC:FactorD 1 16.5 16.5 0.453 0.51074
## FactorA:FactorB:FactorC:FactorD 1 34.0 34.0 0.932 0.34882
## Residuals 16 584.5 36.5
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
En la tabla para averiguar los efectos que influen de manera relevante en la Replica_Y2, se tiene como significativos a tres factores, los cuales son, el A C y el D, pero como es de observar el factor A es es el que tiene un mayor nivel de significancia a comparación del C y D.
g) ¿Qué tratamiento minimiza Y2?
#--------------Gráfica de efectos individuales----------#
library(printr)
experimento = FrF2(nruns = 16, nfactors = 4, factor.names = list(f_FactorA=c(-1,1), FactorB=c(-1,1), FactorC=c(-1,1), FactorD=c(-1,1) ),replications = 2,randomize = FALSE)
experimento_resp=add.response(design = experimento,response = Replica_Y2)
grafica_efectos_principales=MEPlot(experimento_resp, main= "Gráfica de Efectos Individuales")
#------------Gráfica de interacciones--------#
grafica_interacciones=IAPlot(experimento_resp, main= "Gráfica de Interacciones")
Los factores que minimizan a la Replica_Y2 son A, C y D, ya que son en cierta medida significativos, por lo que sera necesario trabajar con estos. Por ende el factor A es necesario trabajarlo con niveles altos, mientras que para los factores C y D, por su parte el C se trabajara con nivles bajos para lograr minimizar la variable de respuesta, mientras que el D con un vivel alto (1, -1, 1).
h) Encuentre una condición satisfactoria tanto para minimizar Y1 como Y2.
Para Y1: (A, B, C, D) => (-1,-1,1,1) Para Y2: (A, B, C, D) => (1,1,-1,1) o (1,-1,-1,1). Se puede obserar que los niveles de A y C, difieren en ambas variables de respuesta y como se desea mayormente minimizar a la Replica Y1 o los errores de este, se toman los niveles que toman la combinación para dicha variable para los factores mencionados, poe lo que la condición que quede para ambas replicas sería A, B, C, D =>(-1,-1,1,1).
i) De los análisis de varianza para Y1 y Y2 observe el coeficiente \(R^2\). ¿Qué concluye de ello?
Replica_Y1 (coeficiente)
R=((8613+1263+11820+11666+3549+428)/(8613+1263+11820+11666+3549+428+138)*100)
summary(R)
Min. | 1st Qu. | Median | Mean | 3rd Qu. | Max. |
---|---|---|---|---|---|
99.63177 | 99.63177 | 99.63177 | 99.63177 | 99.63177 | 99.63177 |
Replica_Y2 (coeficiente)
R=((472.8+294+247.5)/(472.8+294+247.5+36.5)*100)
summary(R)
Min. | 1st Qu. | Median | Mean | 3rd Qu. | Max. |
---|---|---|---|---|---|
96.52646 | 96.52646 | 96.52646 | 96.52646 | 96.52646 | 96.52646 |
Con el \(R^2\) podemos observar la capacidad que tienen los resultados obtenidos para que se puedan ajustar y predecir la variable resuesta, por lo que podemos decir que la Replica_Y1 tiene en su mayoria el 99% que los datos se ajustan a comparacion de la Replica_Y2, por ende se puede decir que Y1 tiene un mejor modelo.
j) Verifique residuos.
Prueba de Normalidad de Residuos de Shapiro-Wilk
\[H_{0}:R \, {\in} N\, ({\mu=0}, {\sigma^2}=Constante)\]
\[H_{1}:R \, {\notin}\, N\, ({\mu=0}, {\sigma^2}<Constante)\]
#------------------Análisis Residual----------------#
normalidad=shapiro.test(resid(modelo))
print(normalidad)
##
## Shapiro-Wilk normality test
##
## data: resid(modelo)
## W = 0.8854, p-value = 0.002686
#-------------Gráfica de Probabiliad Normal-----------------#
qqnorm(resid(modelo), main= "Gráfica de Probabilidad para los Residuales del Modelo", xlab="Cuantiles Teoricos", ylab = "Cuantiles de muestra")
qqline(resid(modelo))
La prueba de Shapiro-Wilk confirma que mediante la gráfica de probabilidad para los residuales del modelo muestra con cierta evidencia que hay una falta de normalidad en lo que respecta a los residuos, por lo que se puede decir que existen datos atípicos en el modelo propuesto, los cuales provocan que no sea idóneo para explicar el número de fallas al momento de colocar los componentes.
Prueba Igualdad de Varianzas de Bartlett
\[H_{0}:\sigma^{2}_{i}=\sigma^{2}_{j}=Constante\]
\[H_{1}:\sigma^{2}_{i} \neq \sigma^{2}_{j}\neq Constante\]
homocedasticidad=bartlett.test(resid(modelo),f_factorA,f_factorB,f_factorC,f_factorD,data=experimento_resp)
print(homocedasticidad)
##
## Bartlett test of homogeneity of variances
##
## data: resid(modelo) and f_factorA
## Bartlett's K-squared = 2.0788, df = 1, p-value = 0.1494
En base a los resultados obtenidos por el análisis de homocedasticidad, estos son homocedásticos, ya que a pesar de que no tienen una normalidad su varianza es constante, por lo que se puede decir que el modelo de regresión no es el adecuado.