1 DISENO EN BLOQUE COMPLETAMENTE AL AZAR

imagen 1

1.1 TEORIA:

Son las variables adicionales al factor de interés que se incorporan de manera explícita en un experimento comparativo para no sesgar la comparación. En un diseño en bloques completos al azar (DBCA) se consideran tres fuentes de variabilidad: el factor de tratamientos, el factor de bloque y el error aleatorio, esdecir, se tienen tres posibles “culpables” de la variabilidad presente en los datos. La palabra completo en el nombre del diseño se debe a que en cada bloque se prueban todos los tratamientos, o sea, los bloques están completos. La aleatorización se hace dentro de cada bloque; por lo tanto, no se realiza de manera total como en el diseño completamente al azar. El hecho de que existan bloques hace que no sea práctico o que incluso sea imposi ble aleatorizar en su totalidad. Los factores de bloqueo que aparecen en la práctica son: turno, lote, día, tipo de material, línea de producción, operador, máquina, método, etc. La imposibilidad de aleatorizar de bloque a bloque se aprecia clara mente cuando se bloquean factores como día o turno, ya que no tiene sen tido pensar en seleccionar al azar el orden de los días o los turnos porque es imposible regresar el tiempo.

Bloque completo En el DBCA se refiere a que en cada bloque se prueban todos los tratamientos.

Efecto de interacción Es cuando dos factores interactúan, es decir, cuando el efecto de uno depende del nivel del otro.

Cuadro latino Diseño en el que se controlan dos factores de bloque y uno de tratamientos; los tres factores tienen la misma cantidad de niveles. Los tratamientos se representan por letras latinas y se distribuyen en forma adecuadaen un cuadro.

Cuadro latino estándar Cuadro latino que tiene en la primera columna y en el primer renglón las letras en orden alfabético.

Cuadro grecolatino Diseño en el que se controlan tres factores de bloques y un factor de tratamiento; los cuatro factores utilizan la misma cantidad de niveles.

1.2 Problema 22

1.2.1 Resolucion del Problema

##Diferencia en costos con relación a tiempo en las diferentes rutas.

Una compañía distribuidora ubicada en los suburbios está interesada en estudiar la diferencia en costos (tiempo y gasolina) entre las cuatro rutas (A, B, C, D) que llevan a la zona comercial, más importante para ellos, en el otro extremo de la ciudad. Deciden correr un experimento en cuadro grecolatino controlando los factores de bloque chofer, marca de vehículo (a, b, c, d) y día de la semana. El experimento se repite en dos semanas diferentes, en las cuales no hay días festivos ni quincenas. Los costos observados en pesos se muestran en la siguiente tabla:

tabla 4-22

1.2.2 Entrada De Los Datos

df=read.csv("https://raw.githubusercontent.com/yirleymorales/DisenoExperimental/main/22proa.csv")
df 
##    Dia Chofer mv Rutas   Y
## 1    1      1  1     D 825
## 2    1      2  4     A 650
## 3    1      3  2     C 700
## 4    1      4  3     B 475
## 5    2      1  4     C 585
## 6    2      2  1     B 540
## 7    2      3  3     D 650
## 8    2      4  2     A 560
## 9    3      1  2     B 550
## 10   3      2  3     C 580
## 11   3      3  1     A 635
## 12   3      4  4     D 650
## 13   4      1  3     A 580
## 14   4      2  2     D 850
## 15   4      3  4     B 459
## 16   4      4  1     C 670
str(df)
## 'data.frame':    16 obs. of  5 variables:
##  $ Dia   : int  1 1 1 1 2 2 2 2 3 3 ...
##  $ Chofer: int  1 2 3 4 1 2 3 4 1 2 ...
##  $ mv    : int  1 4 2 3 4 1 3 2 2 3 ...
##  $ Rutas : chr  "D" "A" "C" "B" ...
##  $ Y     : int  825 650 700 475 585 540 650 560 550 580 ...
df$Dia=factor(df$Dia)
df$Chofer=factor(df$Chofer)
df$mv=factor(df$mv)
df$Rutas=factor(df$Rutas)

1.2.3 Analisis de ANOVA

modelo=aov(Y~Dia+Chofer+mv+Rutas,data=df)
summary(modelo)
##             Df Sum Sq Mean Sq F value  Pr(>F)   
## Dia          3  15003    5001   6.913 0.07331 . 
## Chofer       3   9935    3312   4.578 0.12169   
## mv           3  31160   10387  14.358 0.02765 * 
## Rutas        3 114658   38219  52.833 0.00427 **
## Residuals    3   2170     723                   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

En el modelo de ANOVA nos da valores Pr(>F) por encima de 0.05 y otros por debajo de 0.05

1.2.4 Boxplot: Comparacion de Experimentos

boxplot(Y~Rutas,data=df)

El boxplot nos muestra una grafica con valores bastante dispersos entre si, en que ninguno concuerda. ### Prueba de Comparaciones Multiples: TukeyHSD

tk=TukeyHSD(modelo)
tk
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = Y ~ Dia + Chofer + mv + Rutas, data = df)
## 
## $Dia
##       diff       lwr      upr     p adj
## 2-1 -78.75 -170.5263  13.0263 0.0743779
## 3-1 -58.75 -150.5263  33.0263 0.1504518
## 4-1 -22.75 -114.5263  69.0263 0.6685967
## 3-2  20.00  -71.7763 111.7763 0.7373930
## 4-2  56.00  -35.7763 147.7763 0.1673898
## 4-3  36.00  -55.7763 127.7763 0.3863475
## 
## $Chofer
##       diff       lwr      upr     p adj
## 2-1  20.00  -71.7763 111.7763 0.7373930
## 3-1 -24.00 -115.7763  67.7763 0.6377097
## 4-1 -46.25 -138.0263  45.5263 0.2488794
## 3-2 -44.00 -135.7763  47.7763 0.2737150
## 4-2 -66.25 -158.0263  25.5263 0.1138569
## 4-3 -22.25 -114.0263  69.5263 0.6810609
## 
## $mv
##       diff       lwr        upr     p adj
## 2-1  -2.50  -94.2763  89.276296 0.9990107
## 3-1 -96.25 -188.0263  -4.473704 0.0440514
## 4-1 -81.50 -173.2763  10.276296 0.0681414
## 3-2 -93.75 -185.5263  -1.973704 0.0472554
## 4-2 -79.00 -170.7763  12.776296 0.0737817
## 4-3  14.75  -77.0263 106.526296 0.8617463
## 
## $Rutas
##        diff       lwr        upr     p adj
## B-A -100.25 -192.0263  -8.473704 0.0394857
## C-A   27.50  -64.2763 119.276296 0.5547292
## D-A  137.50   45.7237 229.276296 0.0164481
## C-B  127.75   35.9737 219.526296 0.0202398
## D-B  237.75  145.9737 329.526296 0.0033725
## D-C  110.00   18.2237 201.776296 0.0306682
plot(tk)

1.2.5 Prueba de Normalidad

qqnorm(modelo$residuals)
qqline(modelo$residuals)

shapiro.test(modelo$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  modelo$residuals
## W = 0.84362, p-value = 0.01099

La prueba de shapiro wilks nos da un p-value = 0.01099.

1.2.6 Prueba de Levene para la Igualdad de Varianza

library("car")
## Loading required package: carData
leveneTest(Y~Rutas,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value    Pr(>F)    
## group  3  21.322 4.237e-05 ***
##       12                      
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

La prueba de levene nos da un Pr(>F) 4.237e-05.

1.2.7 Prueba de Indepencia de Los Errores de los Datos

plot(modelo$residuals)

plot(modelo$fitted.values,modelo$residuals)

En grafica residuos de modelos nos muestran valores dispersos ente si.

1.3 Diferencia en costos con relación a gasolina en las diferentes rutas.

1.3.1 Entrada De Los Datos

df=read.csv("https://raw.githubusercontent.com/yirleymorales/DisenoExperimental/main/22problb.csv")
df 
##    Dia Chofer mv Rutas   Y
## 1    1      1  1     D 750
## 2    1      2  4     A 725
## 3    1      3  2     C 675
## 4    1      4  3     B 480
## 5    2      1  4     C 610
## 6    2      2  1     B 560
## 7    2      3  3     D 740
## 8    2      4  2     A 615
## 9    3      1  2     B 580
## 10   3      2  3     C 635
## 11   3      3  1     A 540
## 12   3      4  4     D 725
## 13   4      1  3     A 650
## 14   4      2  2     D 770
## 15   4      3  4     B 550
## 16   4      4  1     C 730
str(df)
## 'data.frame':    16 obs. of  5 variables:
##  $ Dia   : int  1 1 1 1 2 2 2 2 3 3 ...
##  $ Chofer: int  1 2 3 4 1 2 3 4 1 2 ...
##  $ mv    : int  1 4 2 3 4 1 3 2 2 3 ...
##  $ Rutas : chr  "D" "A" "C" "B" ...
##  $ Y     : int  750 725 675 480 610 560 740 615 580 635 ...
df$Dia=factor(df$Dia)
df$Chofer=factor(df$Chofer)
df$mv=factor(df$mv)
df$Rutas=factor(df$Rutas)

1.3.2 Analisis de ANOVA

modelo=aov(Y~Dia+Chofer+mv+Rutas,data=df)
summary(modelo)
##             Df Sum Sq Mean Sq F value Pr(>F)
## Dia          3   7467    2489   0.414  0.756
## Chofer       3   4667    1556   0.259  0.852
## mv           3   2517     839   0.140  0.930
## Rutas        3  84867   28289   4.704  0.118
## Residuals    3  18042    6014

En modelo de ANOVA nos muestr pr(>F) mayores a 005.

1.3.3 Boxplot: Comparacion de Experimentos

boxplot(Y~Rutas,data=df)

La prueba de shapiro wilks nos da p-value = 0.2994.

1.3.4 Prueba de Comparaciones Multiples: TukeyHSD

tk=TukeyHSD(modelo)
tk
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = Y ~ Dia + Chofer + mv + Rutas, data = df)
## 
## $Dia
##       diff       lwr      upr     p adj
## 2-1 -26.25 -290.8723 238.3723 0.9588942
## 3-1 -37.50 -302.1223 227.1223 0.8972773
## 4-1  17.50 -247.1223 282.1223 0.9866909
## 3-2 -11.25 -275.8723 253.3723 0.9963074
## 4-2  43.75 -220.8723 308.3723 0.8525389
## 4-3  55.00 -209.6223 319.6223 0.7603967
## 
## $Chofer
##       diff       lwr      upr     p adj
## 2-1  25.00 -239.6223 289.6223 0.9639724
## 3-1 -21.25 -285.8723 243.3723 0.9769729
## 4-1 -10.00 -274.6223 254.6223 0.9973897
## 3-2 -46.25 -310.8723 218.3723 0.8330848
## 4-2 -35.00 -299.6223 229.6223 0.9132831
## 4-3  11.25 -253.3723 275.8723 0.9963074
## 
## $mv
##       diff       lwr      upr     p adj
## 2-1  15.00 -249.6223 279.6223 0.9914540
## 3-1 -18.75 -283.3723 245.8723 0.9838055
## 4-1   7.50 -257.1223 272.1223 0.9988868
## 3-2 -33.75 -298.3723 230.8723 0.9208235
## 4-2  -7.50 -272.1223 257.1223 0.9988868
## 4-3  26.25 -238.3723 290.8723 0.9588942
## 
## $Rutas
##       diff        lwr      upr     p adj
## B-A -90.00 -354.62233 174.6223 0.4747912
## C-A  30.00 -234.62233 294.6223 0.9414508
## D-A 113.75 -150.87233 378.3723 0.3327152
## C-B 120.00 -144.62233 384.6223 0.3030453
## D-B 203.75  -60.87233 468.3723 0.0974357
## D-C  83.75 -180.87233 348.3723 0.5203077
plot(tk)

En las grafica de modelos residuales muestran valores alejado a cero.

1.3.5 Prueba de Normalidad

qqnorm(modelo$residuals)
qqline(modelo$residuals)

shapiro.test(modelo$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  modelo$residuals
## W = 0.86467, p-value = 0.02256

1.3.6 Prueba de Levene para la Igualdad de Varianza

library("car")
leveneTest(Y~Rutas,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  3  1.3195 0.3137
##       12

la prueba de levene nos da un dato Pr(>F) 0.3137.

1.3.7 Prueba de Indepencia de Los Errores de los Datos

plot(modelo$residuals)

plot(modelo$fitted.values,modelo$residuals)

1.4 CONCLUSION

El costo en tiempo entre las diferentes rutas, muestra diferencias significativas solamente entre las rutas A, B y C, mientras en las rutas C y D no se observan diferencias significativas.

Se encuentran diferencias significativas en el costo de la gasolina entre las cuatro rutas de la compañia.

1.5 Problema 16

1.5.1 Resolucion del Problema

Se quiere estudiar el efecto de cinco diferentes catalizadores (A, B, C, D y E) sobre el tiempo de reacción de un proceso químico. Cada lote de material sólo permite cinco corridas y cada corrida requie re aproximadamente 1.5 horas, por lo que sólo se pueden realizar cinco corridas diarias. El experimentador decide correr los ex perimentos con un diseño encuadro latino para controlar activa mente a los lotes y días. Los datos obtenidos son:

tabla 4-16

1.5.2 Entrada De Los Datos

df=read.csv("PROBLEMA16.csv",sep=";")
df
##    Lote Dias Tratamiento  Y
## 1     1    1           A  8
## 2     1    2           B  7
## 3     1    3           D  1
## 4     1    4           C  7
## 5     1    5           E  3
## 6     2    1           C 11
## 7     2    2           E  2
## 8     2    3           A  7
## 9     2    4           D  3
## 10    2    5           B  8
## 11    3    1           B  4
## 12    3    2           A  9
## 13    3    3           C 10
## 14    3    4           E  1
## 15    3    5           D  5
## 16    4    1           D  6
## 17    4    2           C  8
## 18    4    3           E  6
## 19    4    4           B  6
## 20    4    5           A 10
## 21    5    1           E  4
## 22    5    2           D  2
## 23    5    3           B  3
## 24    5    4           A  8
## 25    5    5           C  8
str(df)
## 'data.frame':    25 obs. of  4 variables:
##  $ Lote       : int  1 1 1 1 1 2 2 2 2 2 ...
##  $ Dias       : int  1 2 3 4 5 1 2 3 4 5 ...
##  $ Tratamiento: chr  "A" "B" "D" "C" ...
##  $ Y          : int  8 7 1 7 3 11 2 7 3 8 ...
df$Lote=factor(df$Lote)
df$Dias=factor(df$Dias)
df$Tratamiento=factor(df$Tratamiento)

En este experimento el tiempo no de puede aleatorizar, los lotes fueron controlados por el investigador, el tratamiento, en este caso el catalizador pudo ser aleatorizado.

1.5.3 Analisis de ANOVA

modelo=aov(Y~Lote+Dias+Tratamiento,data=df)
summary(modelo)
##             Df Sum Sq Mean Sq F value   Pr(>F)    
## Lote         4  15.44    3.86   1.235 0.347618    
## Dias         4  12.24    3.06   0.979 0.455014    
## Tratamiento  4 141.44   35.36  11.309 0.000488 ***
## Residuals   12  37.52    3.13                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

No existe efecto de los catalizadores sobre el el tiempo de reacción del proceso químico Ha= existe efecto de los catalizadores sobre el el tiempo de reacción del proceso químico

1.5.4 Boxplot: Comparacion de Experimentos

boxplot(Y~Tratamiento,data=df)

El Catalizador E disminuye el tiempo de la reacción en los procesos químicos

1.5.5 Prueba de Comparaciones Multiples: TukeyHSD

tk=TukeyHSD(modelo)
tk
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = Y ~ Lote + Dias + Tratamiento, data = df)
## 
## $Lote
##     diff       lwr      upr     p adj
## 2-1  1.0 -2.564608 4.564608 0.8936609
## 3-1  0.6 -2.964608 4.164608 0.9816047
## 4-1  2.0 -1.564608 5.564608 0.4225127
## 5-1 -0.2 -3.764608 3.364608 0.9997349
## 3-2 -0.4 -3.964608 3.164608 0.9960012
## 4-2  1.0 -2.564608 4.564608 0.8936609
## 5-2 -1.2 -4.764608 2.364608 0.8166339
## 4-3  1.4 -2.164608 4.964608 0.7232162
## 5-3 -0.8 -4.364608 2.764608 0.9489243
## 5-4 -2.2 -5.764608 1.364608 0.3365811
## 
## $Dias
##     diff       lwr      upr     p adj
## 2-1 -1.0 -4.564608 2.564608 0.8936609
## 3-1 -1.2 -4.764608 2.364608 0.8166339
## 4-1 -1.6 -5.164608 1.964608 0.6212723
## 5-1  0.2 -3.364608 3.764608 0.9997349
## 3-2 -0.2 -3.764608 3.364608 0.9997349
## 4-2 -0.6 -4.164608 2.964608 0.9816047
## 5-2  1.2 -2.364608 4.764608 0.8166339
## 4-3 -0.4 -3.964608 3.164608 0.9960012
## 5-3  1.4 -2.164608 4.964608 0.7232162
## 5-4  1.8 -1.764608 5.364608 0.5188508
## 
## $Tratamiento
##     diff        lwr        upr     p adj
## B-A -2.8 -6.3646078  0.7646078 0.1539433
## C-A  0.4 -3.1646078  3.9646078 0.9960012
## D-A -5.0 -8.5646078 -1.4353922 0.0055862
## E-A -5.2 -8.7646078 -1.6353922 0.0041431
## C-B  3.2 -0.3646078  6.7646078 0.0864353
## D-B -2.2 -5.7646078  1.3646078 0.3365811
## E-B -2.4 -5.9646078  1.1646078 0.2631551
## D-C -5.4 -8.9646078 -1.8353922 0.0030822
## E-C -5.6 -9.1646078 -2.0353922 0.0023007
## E-D -0.2 -3.7646078  3.3646078 0.9997349

Si existe diferencia entre los tratamientos, D-A E-A D-C E-C.

1.5.6 Prueba de Normalidad

qqnorm(modelo$residuals)
qqline(modelo$residuals)

shapiro.test(modelo$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  modelo$residuals
## W = 0.96606, p-value = 0.5476

Ninguno de estos factores afectan el tiempo de reacción y lo valores de p según el análisis de anova son mayores a 0.05.

1.5.7 Prueba de Levene para la Igualdad de Varianza

library("car")
leveneTest(Y~Tratamiento,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  4  0.4444 0.7751
##       20

1.5.8 Prueba de Indepencia de Los Errores de los Datos

plot(modelo$residuals)
abline(h=0)

plot(df$Tratamiento,modelo$residuals)
abline(h=0)

plot(modelo$fitted.values, modelo$residuals)
abline(h=0)

Los supuestos del modelo se cumplen, la distribución normal y los residuales.

1.6 CONCLUSION

Se ha llegado a la conclusion que existe diferencia significativa entre los tratamientos, D-A E-A D-C E-C y de estos factores afectan el tiempo de reacción y lo valores de p según el análisis de anova son mayores a 0.05.

Los supuestos del modelo se cumplen, la distribución normal y los residuales. El Catalizador E disminuye el tiempo de la reacción en los procesos químicos.

1.7 Problema 19

1.7.1 Resolucion del Problema

Se comprueba el peso en gramos de un material de tres proveedores: A, B y C, por tres diferentes inspectores: I, II y III, utilizando tres diferentes escalas: 1, 2 y 3. El experimento se lleva a cabo como el siguiente cuadro latino:

tabla 4-19

1.7.2 Entrada De Los Datos

df=expand.grid(1:3,1:3)
df$Trat=c("A","B","C","B","C","A","C","A","B")
df$Y=c(16,15,13,10,9,11,11,14,13)
df
##   Var1 Var2 Trat  Y
## 1    1    1    A 16
## 2    2    1    B 15
## 3    3    1    C 13
## 4    1    2    B 10
## 5    2    2    C  9
## 6    3    2    A 11
## 7    1    3    C 11
## 8    2    3    A 14
## 9    3    3    B 13
names(df)=c("Inspector","Escala","Trat","Y")
df
##   Inspector Escala Trat  Y
## 1         1      1    A 16
## 2         2      1    B 15
## 3         3      1    C 13
## 4         1      2    B 10
## 5         2      2    C  9
## 6         3      2    A 11
## 7         1      3    C 11
## 8         2      3    A 14
## 9         3      3    B 13
str(df)
## 'data.frame':    9 obs. of  4 variables:
##  $ Inspector: int  1 2 3 1 2 3 1 2 3
##  $ Escala   : int  1 1 1 2 2 2 3 3 3
##  $ Trat     : chr  "A" "B" "C" "B" ...
##  $ Y        : num  16 15 13 10 9 11 11 14 13
##  - attr(*, "out.attrs")=List of 2
##   ..$ dim     : int [1:2] 3 3
##   ..$ dimnames:List of 2
##   .. ..$ Var1: chr [1:3] "Var1=1" "Var1=2" "Var1=3"
##   .. ..$ Var2: chr [1:3] "Var2=1" "Var2=2" "Var2=3"
df$Inspector=factor(df$Inspector)
df$Escala=factor(df$Escala)
df$Trat=factor(df$Trat)

1.7.3 Analisis de ANOVA

modelo=aov(Y~Inspector+Escala+Trat,data=df)
summary(modelo)
##             Df Sum Sq Mean Sq F value  Pr(>F)   
## Inspector    2   0.22   0.111       1 0.50000   
## Escala       2  32.89  16.444     148 0.00671 **
## Trat         2  10.89   5.444      49 0.02000 * 
## Residuals    2   0.22   0.111                   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

En el análisis de ANOVA , con un valor p = 0.02000 * (p < 0.05) para los proveedores, se rechaza Ho, concluyendo que hay diferencia significativa en al menos 1 proveedor.

En el análisis de ANOVA , con un valor p = 0.50000 para los inspectores, se acepta Ho, concluyendo que no hay diferencia significativa entre los instructores. Entre las escalas con un valor p = 0.00671 ** (p < 0.05), se rechaza Ho, concluyendo que hay diferencias significativas en al menos 1 escala.

1.7.4 Boxplot: Comparacion de Experimentos

boxplot(Y~Escala,data = df)

boxplot(Y~Trat,data = df)

boxplot(Y~Inspector,data = df)

El proveedor A, es el mejor proveedor porque es el que más se acerca al peso esperado de 15g.

1.7.5 Prueba de Comparaciones Multiples: TukeyHSD

tk=TukeyHSD(modelo)
tk
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = Y ~ Inspector + Escala + Trat, data = df)
## 
## $Inspector
##              diff       lwr      upr    p adj
## 2-1  3.333333e-01 -1.269927 1.936593 0.548184
## 3-1  1.776357e-15 -1.603260 1.603260 1.000000
## 3-2 -3.333333e-01 -1.936593 1.269927 0.548184
## 
## $Escala
##          diff       lwr        upr     p adj
## 2-1 -4.666667 -6.269927 -3.0634068 0.0061007
## 3-1 -2.000000 -3.603260 -0.3967402 0.0327189
## 3-2  2.666667  1.063407  4.2699265 0.0186734
## 
## $Trat
##          diff       lwr         upr     p adj
## B-A -1.000000 -2.603260  0.60325985 0.1191149
## C-A -2.666667 -4.269927 -1.06340682 0.0186734
## C-B -1.666667 -3.269927 -0.06340682 0.0464424
plot(tk)

Se elimina el factor de bloque de los inspectores, ya que se concluyó que no tiene efecto en la variable respuesta, al tener una p < 0.05 por lo tanto no hay diferencia significativa. Al hacer los análisis nuevamente se observó que las escalas y los proveedores seguían teniendo diferencia significativa, pero con un mayor grado de significancia.

1.7.6 Prueba de Normalidad

qqnorm(modelo$residuals)
qqline(modelo$residuals)

shapiro.test(modelo$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  modelo$residuals
## W = 0.61728, p-value = 0.0001526

1.7.7 Prueba de Levene para la Igualdad de Varianza

require(car)
leveneTest(Y~Trat,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  2  0.0556 0.9464
##        6
leveneTest(Y~Escala,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  2  0.1429 0.8697
##        6

La prueba de levene nos dice que pr(>F) de tratameinto es de 0.9464 y en la prueba de levene de escala nos de el pr(>F) es de 0.8697.

1.7.8 Prueba de Indepencia de Los Errores de los Datos

plot(modelo$residuals)
abline(h=0)

En la grafica de modelos residuales se observa que los datos obtenidos no son lineales al 0 estan bastante alejados.

1.7.9 CONCLUSION

Se ha llegado a la conclusion de que si se elimina el factor de bloque de los inspectores, no tiene efecto en la variable respuesta, al tener una p < 0.05 por lo tanto no hay diferencia significativa. Al hacer los análisis nuevamente se observó que las escalas y los proveedores seguían teniendo diferencia significativa, pero con un mayor grado de significancia.

Nota: Es importante tomar en cuenta que los datos no cumplen con los supuestos de normalidad e independencia de la ANOVA, por lo que el estudio no es reproducible.

Ademas, el proveedor A, es el mejor proveedor porque es el que más se acerca al peso esperado de 15g.

2 DISENO FACTORIAL

imagen 2

2.1 TEORIA

El objetivo de un diseño factorial es estudiar el efecto de varios factores sobre una o varias respuestas, cuando se tiene el mismo interés sobre todos los factores.Uno de los objetivos particulares más importantes que en ocasiones tiene un diseño factorial es determinar una combinación de niveles de los factores en la que el desempeño del proceso sea mejor. Para estudiar la manera en que influye cada factor sobre la variable de respuesta es necesario elegir al menos dos niveles de prueba para cada uno de ellos. Con el diseño factorial completo se corren aleatoriamente todas las posibles combinaciones que pueden formarse con los niveles de los factores a investigar.

Diseño factorial

Diseño experimental que sirve para estudiar el efecto individual y de interacción de varios factores sobre una o varias respuestas.

Efecto Principal

Es igual a la respuesta promedio observada en el nivel alto de un factor, menos la respuesta promedio en el nivel bajo.

Efecto de Interacción

Dos factores interactúan de manera significativa sobre la variable de respuesta cuando el efecto de uno depende del nivel en que está el otro.

Diseños Factoriales con Dos Factores

Considere los factores A y B con a y b (a, b ≥ 2) niveles de prueba, respectivamente. Con ellos se puede construir el arreglo o diseño factorial a × b, el cual consiste en a × b tratamientos. Algunos casos particulares de uso frecuente son: el factorial 22, el factorial 32 y el factorial 3 × 2. Se llama réplica a cada corrida completa del arreglo factorial. Los diseños factoriales que involucran menos de cuatro factores por lo regular se corren replicados para tener la potencia necesaria en las pruebas estadísticas sobre los efectos de interés. Si se hacen n réplicas, el número total de corridas experimentales es n(a × b).

Diseños Factoriales con Tres Factores

Cuando se quiere investigar la influencia de tres factores (A, B y C) sobre una o más variables de respuesta, y el número de niveles de prueba en cada uno de los factores es a, b y c, respectivamente, se puede construir el arreglo factorial a × b × c, que consiste de a × b × c tratamientos o puntos experimentales. Entre los arreglos de este tipo que se utilizan con frecuencia en aplicaciones diversas se encuentran: el factorial 23, el factorial 33 y los factoriales mixtos con no más de cuatro niveles en dos de los factores, por ejemplo, el factorial 4 × 3 × 2 y el factorial 4 × 4 × 2, por mencionar dos de ellos.

2.2 Problema 21

2.2.1 Resolucion del Problema

Se desea investigar de qué manera afecta el tiempo de curado y el tipo del acelerante a la resistencia de caucho vulcanizado. Se realiza un experimento y se obtienen los siguientes datos:

Tabla 5-21

2.2.2 Entrada De Los Datos

df=read.csv("CAP 5PROBLEM 21.csv", sep=";")
df
##    ACELERANTE TIEMPO.DE.CURA    Y
## 1          -1             -1 3900
## 2          -1             -1 3600
## 3          -1              0 4100
## 4          -1              0 3500
## 5          -1              1 4000
## 6          -1              1 3800
## 7           0             -1 4300
## 8           0             -1 3700
## 9           0              0 4200
## 10          0              0 3900
## 11          0              1 4300
## 12          0              1 3600
## 13          1             -1 3700
## 14          1             -1 4100
## 15          1              0 3900
## 16          1              0 4000
## 17          1              1 3600
## 18          1              1 3800
str(df)
## 'data.frame':    18 obs. of  3 variables:
##  $ ACELERANTE    : int  -1 -1 -1 -1 -1 -1 0 0 0 0 ...
##  $ TIEMPO.DE.CURA: int  -1 -1 0 0 1 1 -1 -1 0 0 ...
##  $ Y             : int  3900 3600 4100 3500 4000 3800 4300 3700 4200 3900 ...
df$ACELERANTE=factor(df$ACELERANTE)
df$TIEMPO.DE.CURA=factor(df$TIEMPO.DE.CURA)

2.2.3 Analisis de ANOVA

modelo=aov(Y~ACELERANTE+TIEMPO.DE.CURA,data=df)
summary(modelo)
##                Df Sum Sq Mean Sq F value Pr(>F)
## ACELERANTE      2 114444   57222   0.825   0.46
## TIEMPO.DE.CURA  2  21111   10556   0.152   0.86
## Residuals      13 902222   69402

El p_valor= 0.46 y 0.86 sugiere que no hay diferencia significativa entre los acelerantes y el tiempo de curado a las resistencia de caucho volcanico.

2.2.4 Boxplot: Comparacion de Experimentos

boxplot(Y~TIEMPO.DE.CURA,data=df)

boxplot(Y~ACELERANTE,data=df)

boxplot(Y~ACELERANTE*TIEMPO.DE.CURA,data=df)

interaction.plot(df$ACELERANTE,df$TIEMPO.DE.CURA,df$Y)

1- No existe diferencia en las graficas de tiempo de curado y acelerante -1 y 1, pero si hay diferencia significativa en el tiempo de curado y acelerante 0.

2- En la grafica de comparacion del acelerantes y tiempo de curado señala que son diferentes los valores.

3- No existe interaccion entre los experimentos 0 y -1.

2.2.5 Prueba de Comparaciones Multiples: TukeyHSD

tk=TukeyHSD(modelo)
tk
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = Y ~ ACELERANTE + TIEMPO.DE.CURA, data = df)
## 
## $ACELERANTE
##            diff       lwr      upr     p adj
## 0--1  183.33333 -218.2728 584.9394 0.4708685
## 1--1   33.33333 -368.2728 434.9394 0.9739228
## 1-0  -150.00000 -551.6061 251.6061 0.5979909
## 
## $TIEMPO.DE.CURA
##           diff       lwr      upr     p adj
## 0--1  50.00000 -351.6061 451.6061 0.9424302
## 1--1 -33.33333 -434.9394 368.2728 0.9739228
## 1-0  -83.33333 -484.9394 318.2728 0.8493245

Al comparar las medias de los diferentes valores obtenemos p_valores > 0.05 por lo que no existe diferencias significativas en entre las medias de los acelerantes y el tiempo de curado de los experimantos

2.2.6 Prueba de Normalidad

qqnorm(modelo$residuals)
qqline(modelo$residuals)

shapiro.test(modelo$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  modelo$residuals
## W = 0.94083, p-value = 0.2994

La prueba de Shapiro Wilks arroja un valor de p=0.2994 por lo que se acepta la Ho.

2.2.7 Prueba de Levene para la Igualdad de Varianza

require(car)
leveneTest(Y~ACELERANTE,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  2   1.789  0.201
##       15
leveneTest(Y~TIEMPO.DE.CURA,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  2  0.1373 0.8728
##       15

La prueba de levene indica que las varianzas son iguales a un nivel de significancia de 95%.

2.2.8 Prueba de Indepencia de Los Errores de los Datos

plot(modelo$residuals)
abline(h=0)

En la tabla demuestra que los modelos residuales de los experiementos son diferentes a la linea 0 estan bastante dispersos..

2.2.9 CONCLUSION

Este problema se realizo bajo un diseño factorial 3x3 con dos factores. Las hipotesis estadisticas tanto de los acelerantes y la del tiempo de curado demostraron que existe diferencias en ambas graficas de los datos por lo que se desaprueba la Ho y se aprueba la Ha.

Se comprobo que el mejor tiempo curado a 14ºC de 60 minutos tiene un mayor afecto para aumentar la resistencia de caucho volcanico.En cuanto a los acelerante se comprobo que el acelerante B mostro un mayor efecto para el mejoramiento de la resistencia del caucho volcanico.

Se demostro que la combinacion de tiempo de curado a 14ºc de 60 minutos y acelerante B muestra una mejor resistencia al caucho vulcanizado.

Mediante la prueba de shapiro winks se obtuvo un valor p_valor de 0.2994 lo que significa que se acepta la Ho.

2.3 Problema 19

2.3.1 Resolucion del Problema

Se corre un diseño factorial 3 × 2 con 10 réplicas para investigar el hinchamiento del catalizador después de la extrusión en la fabricación de botellas de polietileno de alta densidad. El catalizador se utiliza en la obtención de dicho polietileno. Los factores investigados son: molde (con dos niveles) y B: catalizador (con tres niveles). Los datos obtenidos se muestran en la siguiente tabla:

tabla 5-19

2.3.2 Entrada De Los Datos

df=read.csv("cap5p19.csv")
df
##    Molde Catalizador  Y
## 1     -1          -1 93
## 2     -1          -1 92
## 3     -1          -1 90
## 4     -1          -1 91
## 5     -1          -1 92
## 6     -1          -1 91
## 7     -1          -1 90
## 8     -1          -1 91
## 9     -1          -1 93
## 10    -1          -1 90
## 11     1          -1 88
## 12     1          -1 88
## 13     1          -1 87
## 14     1          -1 87
## 15     1          -1 88
## 16     1          -1 87
## 17     1          -1 87
## 18     1          -1 87
## 19     1          -1 87
## 20     1          -1 88
## 21    -1           0 92
## 22    -1           0 94
## 23    -1           0 90
## 24    -1           0 91
## 25    -1           0 90
## 26    -1           0 91
## 27    -1           0 92
## 28    -1           0 92
## 29    -1           0 92
## 30    -1           0 91
## 31     1           0 90
## 32     1           0 88
## 33     1           0 88
## 34     1           0 88
## 35     1           0 89
## 36     1           0 90
## 37     1           0 89
## 38     1           0 88
## 39     1           0 88
## 40     1           0 89
## 41    -1           1 95
## 42    -1           1 94
## 43    -1           1 94
## 44    -1           1 94
## 45    -1           1 94
## 46    -1           1 97
## 47    -1           1 95
## 48    -1           1 96
## 49    -1           1 94
## 50    -1           1 96
## 51     1           1 91
## 52     1           1 90
## 53     1           1 92
## 54     1           1 90
## 55     1           1 97
## 56     1           1 89
## 57     1           1 90
## 58     1           1 91
## 59     1           1 91
## 60     1           1 91
str(df)
## 'data.frame':    60 obs. of  3 variables:
##  $ Molde      : int  -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 ...
##  $ Catalizador: int  -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 ...
##  $ Y          : int  93 92 90 91 92 91 90 91 93 90 ...
df$Molde=factor(df$Molde)
df$Catalizador=factor(df$Catalizador)

2.3.3 Analisis de ANOVA

modelo=aov(Y~Molde+Catalizador,data=df)
summary(modelo)
##             Df Sum Sq Mean Sq F value   Pr(>F)    
## Molde        1 180.27  180.27  110.89 6.79e-15 ***
## Catalizador  2 153.03   76.52   47.07 1.02e-12 ***
## Residuals   56  91.03    1.63                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Ho : Efecto de Molde (A) = 0 HA : Efecto de Molde (A) ≠ 0

Ho : Efecto de Catalizador (B) = 0 HA : Efecto de Catalizador (B) ≠ 0

Estas hipótesis se prueban mediante la técnica de análisis de varianza (modelo estadístico: ANOVA), para un diseño factorial a × b con n réplicas.

2.3.4 Boxplot: Comparacion de Experimentos

boxplot(Y~Molde,data=df)

boxplot(Y~Catalizador,data=df)

boxplot(Y~Molde*Catalizador,data=df)

interaction.plot(df$Molde,df$Catalizador,df$Y)

Ambos efectos el molde y el catalizador están activos.

2.3.5 Prueba de Comparaciones Multiples: TukeyHSD

tk=TukeyHSD(modelo)
tk
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = Y ~ Molde + Catalizador, data = df)
## 
## $Molde
##           diff       lwr       upr p adj
## 1--1 -3.466667 -4.126135 -2.807199     0
## 
## $Catalizador
##      diff        lwr      upr     p adj
## 0--1 0.75 -0.2206975 1.720698 0.1598613
## 1--1 3.70  2.7293025 4.670698 0.0000000
## 1-0  2.95  1.9793025 3.920698 0.0000000
plot(tk)

El mejor trata miento sería Molde A1 y el Catalizador B3, con un hinchamiento predicho de 94.9.

2.3.6 Prueba de Normalidad

qqnorm(modelo$residuals)
qqline(modelo$residuals)

shapiro.test(modelo$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  modelo$residuals
## W = 0.87917, p-value = 2.485e-05

En la prueba Shapiro con un valor p = 2.485e-05 (p<0.05), se rechaza Ho, por lo que se concluye que los datos no se distribuyen de forma normal.

En el leveneTest para catalizadores y moldes, en ambos la p > 0.05, nos indica que hay varianzas constantes.

2.3.7 Prueba de Levene para la Igualdad de Varianza

require(car)
leveneTest(Y~Molde,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  1  0.1322 0.7175
##       58
leveneTest(Y~Catalizador,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  2  2.0397 0.1394
##       57

2.3.8 Prueba de Indepencia de Los Errores de los Datos

plot(modelo$residuals)
abline(h=0)

Observando la gráfica de residuos contra factores, pareciera que la dispersión es menor en el molde B.

2.3.9 CONCLUSION

Se ha llegado a la conclusionde que el mejor trata miento sería Molde A1 y el Catalizador B3, con un hinchamiento predicho de 94.9.

En la prueba Shapiro con un valor p = 2.485e-05 (p<0.05), se rechaza Ho, por lo que se concluye que los datos no se distribuyen de forma normal.

En el leveneTest para catalizadores y moldes, en ambos la p > 0.05, nos indica que hay varianzas constantes.

Tambien oservando la gráfica de residuos contra factores, pareciera que la dispersión es menor en el molde B.

2.4 Problema 20

2.4.1 Resolucion del Problema

Para mejorar la resistencia a la torsión de las adhesiones de componentes electrónicos sobre placas, se estudiaron dos tipos de pegamentos (A1 y A2) y tres temperaturas de curado (60, 80 y 100°C). En cada combinación se analizaron dos componentes y los resultados obtenidos son los siguientes:

tabla 5-20

2.4.2 Entrada De Los Datos

df=read.csv("Cap5Prob20.csv")
df
##    Pegamento Temperatura    Y
## 1         A1          60 2.50
## 2         A1          60 2.80
## 3         A1          80 3.80
## 4         A1          80 3.40
## 5         A1         100 4.00
## 6         A1         100 4.20
## 7         A2          60 1.60
## 8         A2          60 1.22
## 9         A2          80 3.20
## 10        A2          80 2.80
## 11        A2         100 4.30
## 12        A2         100 4.70
str(df)
## 'data.frame':    12 obs. of  3 variables:
##  $ Pegamento  : chr  "A1" "A1" "A1" "A1" ...
##  $ Temperatura: int  60 60 80 80 100 100 60 60 80 80 ...
##  $ Y          : num  2.5 2.8 3.8 3.4 4 4.2 1.6 1.22 3.2 2.8 ...
df$Pegamento=factor(df$Pegamento)
df$Temperatura=factor(df$Temperatura)
df$Y=as.double(df$Y)

2.4.3 Analisis de ANOVA

modelo=aov(Y~Pegamento*Temperatura,data=df)
summary(modelo)
##                       Df Sum Sq Mean Sq F value   Pr(>F)    
## Pegamento              1  0.691   0.691   10.99   0.0161 *  
## Temperatura            2 10.354   5.177   82.35 4.34e-05 ***
## Pegamento:Temperatura  2  1.366   0.683   10.87   0.0101 *  
## Residuals              6  0.377   0.063                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

En el analisis de ANOVA nos indica que pr(>F) de temperatura es de 4.34e-05 y el pr(>F) es de 0.0101

2.4.4 Boxplot: Comparacion de Experimentos

boxplot(Y~Pegamento,data=df,main="Graficos de los pegamento")

boxplot(Y~Temperatura,data=df,main="Resistencia a la torsión de las adhesiones")

boxplot(Y~Pegamento*Temperatura,data=df,main="Graficos de las variables")

El graficas boxplot nos indica que los valores estan dispersos y que muestran diferentes resultados.

2.4.5 Prueba de Comparaciones Multiples: TukeyHSD

tk=TukeyHSD(modelo)
tk
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = Y ~ Pegamento * Temperatura, data = df)
## 
## $Pegamento
##        diff        lwr        upr     p adj
## A2-A1 -0.48 -0.8342158 -0.1257842 0.0160877
## 
## $Temperatura
##        diff       lwr      upr     p adj
## 80-60  1.27 0.7260119 1.813988 0.0009122
## 100-60 2.27 1.7260119 2.813988 0.0000343
## 100-80 1.00 0.4560119 1.543988 0.0032134
## 
## $`Pegamento:Temperatura`
##                diff         lwr       upr     p adj
## A2:60-A1:60   -1.24 -2.23787597 -0.242124 0.0188874
## A1:80-A1:60    0.95 -0.04787597  1.947876 0.0613074
## A2:80-A1:60    0.35 -0.64787597  1.347876 0.7301328
## A1:100-A1:60   1.45  0.45212403  2.447876 0.0088011
## A2:100-A1:60   1.85  0.85212403  2.847876 0.0024766
## A1:80-A2:60    2.19  1.19212403  3.187876 0.0009867
## A2:80-A2:60    1.59  0.59212403  2.587876 0.0055020
## A1:100-A2:60   2.69  1.69212403  3.687876 0.0003113
## A2:100-A2:60   3.09  2.09212403  4.087876 0.0001416
## A2:80-A1:80   -0.60 -1.59787597  0.397876 0.2878599
## A1:100-A1:80   0.50 -0.49787597  1.497876 0.4368423
## A2:100-A1:80   0.90 -0.09787597  1.897876 0.0761198
## A1:100-A2:80   1.10  0.10212403  2.097876 0.0327623
## A2:100-A2:80   1.50  0.50212403  2.497876 0.0074161
## A2:100-A1:100  0.40 -0.59787597  1.397876 0.6284243

No existe interacción (AB) con un nivel de confianza del 95% sobre la media de resistencia a la torsión de las adhesiones de componentes electrónicos sobre placas

2.4.6 Prueba de Normalidad

qqnorm(modelo$residuals)
qqline(modelo$residuals)

shapiro.test(modelo$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  modelo$residuals
## W = 0.77302, p-value = 0.004698

En la prueba de shapiro winks nos de un valor de p-value = 0.004698

2.4.7 Prueba de Levene para la Igualdad de Varianza

require(car)
leveneTest(Y~Temperatura,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value  Pr(>F)  
## group  2  4.4568 0.04516 *
##        9                  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
leveneTest(Y~Pegamento,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  1  2.7953 0.1255
##       10

En la prueba de levene nos un valor de Pr(>F) 0.1255 por que existe diferencia significativa entre las medias

2.4.8 Prueba de Indepencia de Los Errores de los Datos

plot(modelo$residuals)
abline(h=0)

interaction.plot(df$Pegamento,df$Temperatura,df$Y,main="Interaccion entre las variables")

● El factor (Pegamentos) tiene un efecto negativo en la variable de respuesta (resistencia a la torsión de componentes). ● El factor (temperaturas) tiene un efecto negativo en la variable de respuesta (resistencia a la torsión de componentes). ● La interacción AB existe.

2.4.9 CONCLUSION

  • FACTOR A: Pegamento

Se ha demostrado estadísticamente (P < 0,05) que los pegamentos tienen una influencia significativa en la resistencia a la torsión de las adhesiones componentes electrónicos sobre placas, es decir las medias son diferentes.

  • FACTOR B: Temperatura de curado Como en P valor < 0,05; entonces se rechaza la hipótesis nula, concluyendo que las medias de resistencia a la torsión de las adhesiones de componentes electrónicos sobre placas son diferentes.

  • INTERACCIÓN:

No existe interacción (AB) con un nivel de confianza del 95% sobre la media de resistencia a la torsión de las adhesiones de componentes electrónicos sobre placas.