El presente trabajo presenta una serie de análisis estadísticos dentro del Curso Diseño Experimental del Postgrado en Investigación de la Universidad Autónoma de Chiriquí.
En la primera parte se refiere a la temática del diseño experimental como una de las etapas de la investigación científica, diferenciando entre ciencias naturales y sociales, en segundo lugar se abordan los temas relacionados con los diseños experimentales desarrollados en el curso del postgrado tales como los diseños de bloques al azar, diseño de cuadrado latino y diseño grecolatino, posteriormete se desarrollarán varios problemas practicos, con el fin de poner en práctica los conocimientos adquiridos. Los análisis que se realizan son aquellos correspondientes a diseños de bloques, análisis de varianzas, diseño en cuadrado latino y gregolatino.
El resultado de los análisis será presentado por medio del software Rstudio, con la opción RMarkdown y publicado en el sitio RPubs.
La experimentación es uno de los pasos fundamentales para lograr resultados efectivos y aportar al conocimiento. De ahí que el diseño experimental se desarrolle como una actividad necesaria en el proceso investigativo. El diseño experimental se refiere a un esquema de cómo realizar un experimento.
El objetivo fundamental de los diseños experimentales consiste en el determinar si existe una diferencia significativa entre los diferentes tratamientos del experimento y en caso que lo haya, cual sería la magnitud de esta diferencia. Otra meta de los diseños experimentales es verificar la existencia de una tendencia derivada del análisis de los datos del experimento. La diferencia principal entre los diseños experimentales radica en la forma en que se agrupan o clasifican las unidades experimentales. En todos los diseños las unidades experimentales se clasifican por tratamientos; pero en algunos, estos se clasifican preferentemente en bloques, filas, parcelas principales y otras modalidades.
Se refiere a la inclusión de más de una variable en un experimento para lograr resultados más objetivos. En un experimento comparativo se le llama factores de bloque a aquellas variables adicionales al factor de interés que se incorporan de manera explícita en un experimento para no sesgar la investigación.
Se refiere a la prueba de hipótesis a partir de dos criterios de clasificación o de variación: el factor de tratamiento y el factor de bloque.
Se refiere al diseño en el que se controlan dos factores de bloque y uno de tratamientos; los tres factores tienen la misma cantidad de niveles. Los tratamientos se representan por letras latinas y se distribuyen en forma adecuada en un cuadro.
Es el diseño en el que se controlan tres factores de bloques y un factor de tratamiento; los cuatro factores utilizan la misma cantidad de niveles. Se le llama cuadro grecolatino porque los cuatro factores involucrados se prueban en la misma cantidad de niveles, de aquí que se pueda escribir como un cuadro; además, se utilizan letras latinas para denotar a los tratamientos y letras griegas para nombrar a los niveles del tercer factor de bloque.
EMSAMBLE DE UN BRAZO LECTOR DE DISCO DURO
Proceso de ensamble del brazo lector de un disco duro
Una de las variables críticas en el proceso de ensamble del brazo lector de un disco duro es el ángulo que éste forma con el cuerpo prin cipal de la cabeza lectora. Se corre un experimento con el objetivo de comparar dos equipos que miden dicho ángulo en unidades de radianes. Se decide utilizar como factor de bloque a los operadores de los equipos.
DISCODURO
df=read.csv("https://raw.githubusercontent.com/ELYSAN0382/DISENO-EXPERIMENTAL/main/EQUIPOS14ELY.csv",sep=";")
df## Y Operador Equipo
## 1 1.328 1 1
## 2 1.113 1 1
## 3 0.985 1 1
## 4 1.057 1 1
## 5 1.316 1 1
## 6 1.144 1 1
## 7 1.553 1 1
## 8 1.485 1 1
## 9 1.310 1 1
## 10 1.386 1 1
## 11 1.273 1 2
## 12 0.789 1 2
## 13 0.985 1 2
## 14 0.671 1 2
## 15 1.134 1 2
## 16 0.554 1 2
## 17 1.412 1 2
## 18 1.386 1 2
## 19 0.917 1 2
## 20 1.289 1 2
## 21 1.269 2 1
## 22 1.093 2 1
## 23 1.268 2 1
## 24 0.984 2 1
## 25 1.091 2 1
## 26 1.087 2 1
## 27 1.195 2 1
## 28 1.482 2 1
## 29 1.380 2 1
## 30 1.442 2 1
## 31 1.036 2 2
## 32 0.201 2 2
## 33 0.783 2 2
## 34 0.900 2 2
## 35 1.108 2 2
## 36 0.916 2 2
## 37 1.129 2 2
## 38 1.434 2 2
## 39 1.132 2 2
## 40 1.223 2 2
## 41 1.440 3 1
## 42 1.150 3 1
## 43 1.079 3 1
## 44 1.190 3 1
## 45 1.389 3 1
## 46 1.247 3 1
## 47 1.611 3 1
## 48 1.617 3 1
## 49 1.445 3 1
## 50 1.574 3 1
## 51 1.454 3 2
## 52 1.018 3 2
## 53 1.063 3 2
## 54 1.050 3 2
## 55 1.219 3 2
## 56 0.997 3 2
## 57 1.602 3 2
## 58 1.538 3 2
## 59 1.583 3 2
## 60 1.478 3 2
df$Operador=factor(df$Operador)
df$Equipo=factor(df$Equipo)
str(df)## 'data.frame': 60 obs. of 3 variables:
## $ Y : num 1.328 1.113 0.985 1.057 1.316 ...
## $ Operador: Factor w/ 3 levels "1","2","3": 1 1 1 1 1 1 1 1 1 1 ...
## $ Equipo : Factor w/ 2 levels "1","2": 1 1 1 1 1 1 1 1 1 1 ...
modelo=aov(Y~Operador*Equipo,data=df)
summary(modelo)## Df Sum Sq Mean Sq F value Pr(>F)
## Operador 2 0.589 0.2944 4.784 0.01222 *
## Equipo 1 0.493 0.4925 8.005 0.00654 **
## Operador:Equipo 2 0.087 0.0434 0.706 0.49824
## Residuals 54 3.323 0.0615
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Resultado de la prueba de interación: Vemos que hay diferencias significativas entre los operadores,y diferencias signficativas entre los equipos. Pero podemos darnos cuenta que la interacción operador-equipo, no tiene diferencias significativas. Cuando esto ocurre lo mejor es eliminar la interacción en el modelo.Lo más importante son las diferencias significativas entre lasinteracciones. En este caso no hay diferencias significativas.Al eliminar la interacción en el cálculo, el error de la interacción queda dentro de los errores del operador y el equipo.
modelo=aov(Y~Operador+Equipo,data=df)
summary(modelo)## Df Sum Sq Mean Sq F value Pr(>F)
## Operador 2 0.589 0.2944 4.835 0.01156 *
## Equipo 1 0.493 0.4925 8.090 0.00621 **
## Residuals 56 3.409 0.0609
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Ahora podemos observar que el ajuste en el error debido a la interacción cambia un poco. Quiere decir que vamos a ver sólo el efecto de los factores principales (operador-equipo).En este caso hay diferencias significativas entre los operadores de (0.01156).
boxplot(Y~Operador+Equipo,data=df)Al observar las gráficas casi todas se parecen,hay mucha diferencia significativa entre la figura 3 (que corresponde al operador 3-equipo 1)y la figura 5 (que corresponde al operador 2-equipo 2). Aquí posiblemente hay diferencia entre estas dos y esa situación hace que se rechace la hipótesis nula, que son iguales porque estos valores son bastane diferentes.
boxplot(Y~Equipo+Equipo,data=df) Ahora podemos observar que al hacer los boxplot por separados,se nos presentan más detalles entre equipos.
qqnorm(modelo$residual)
qqline(modelo$residual)shapiro.test(modelo$residuals)##
## Shapiro-Wilk normality test
##
## data: modelo$residuals
## W = 0.96139, p-value = 0.05502
La prueba se Shapiro nos está indicando que NO SE PUEDE RECHAZAR la Hipótesis Nula. Por lo tanto se considera normal, pero está en borde de ser rechazada.
library(car)## Loading required package: carData
leveneTest(Y~Equipo+Equipo,data=df)## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 1 4.1246 0.04686 *
## 58
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
leveneTest(Y~Operador+Operador,data=df)## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 2 0.1849 0.8316
## 57
Entre los equiposde la prueba de homoscedasticidad de varianza es < de 0.05, por lo que aquí podemos observar que se rechaza la Hipótesis nula. Es decir que hay diferencias entre las varianzas y entre los diferentes tratamientos.
Para la prueba de homoscedasticidad para los equipos y para los operadores: En esta prueba no se observan diferencias significativas entre las varianzas de los diferentes operadores.
plot(modelo$residuals)
abline(h=0) Al observar la gráfica podemos analizar que existe problemas con la distribución de los datos, porque están fuera del rango y esto puede ocasionar problemas en el análisis.
hipótesis: Ho= Existen diferencias significativas entre los factores Operadores y Equipos.
Ha= No existen diferencias significativas entre los factores Operadores y Equipos.
2.Podemos concluir que existen diferencias significativas entre los equipos, porque al aplicar el Modelo ANOVA.
3.Si existen diferencias significativas entre los operadores,porque al aplicar el Modelo ANOVA los resultados de la comparación del valor p,con el nivel de significancia para evaluar la hipotesis nula, es de 0.01222*
4.Al aplicar el Boxpot,podemos observar que las gráficas casi todas se parecen,hay mucha diferencia significativa entre la figura 3 (que corresponde al operador 3-equipo 1)y la figura.
5 (que corresponde al operador 2-equipo 2). Aquí posiblemente hay diferencia entre estas dos y esa situación hace que se rechace la hipótesis nula, que son iguales porque estos valores son bastane diferentes Rosita Serrano18:00.
5.Al observar la curva de los datos con respecto a la línea de normalidad vemos que la mayoría sigue una distribución normal. Pero al final se desvían un poco.
EMSAMBLE DE UN BRAZO LECTOR DE DISCO DURO
Termómetros de mercurio y term´metros electrónicos
Un aspecto crítico para que se conserve la leche es la temperatura de almacenamiento. De manera tradicional se han usado termómetros de mercurio (Mer) para verificar que la temperatura sea la adecuada, pero ahora se han comprado termómetros electrónicos (Rtd) para facilitar el proceso de medición. Sin embargo, se duda de las mediciones de estos nuevos dispositivos. Para aclarar dudas y diagnosticar la situación, durante cinco días se toman mediciones con ambos tipos de termómetros en varios silos (a la misma hora). Los datos son los siguientes:
TERMOMETRO
df=read.csv("https://raw.githubusercontent.com/ELYSAN0382/DISENO-EXPERIMENTAL/main/MEDIDOR15ELY.csv",sep=",")
str(df)## 'data.frame': 25 obs. of 5 variables:
## $ Dia : int 1 2 3 4 5 1 2 3 4 5 ...
## $ Silo: chr "A" "A" "A" "A" ...
## $ Mer : num 4 4 5 0.5 3 5 6 2 4 4 ...
## $ Rtd : num 2.6 2.8 5 0 2.4 6.4 6.4 2.3 4.2 4 ...
## $ Y : num 1.4 1.2 0 0.5 0.6 -1.4 -0.4 -0.3 -0.2 0 ...
df$Dia=factor(df$Dia)
df$Silo=factor(df$Silo)
df## Dia Silo Mer Rtd Y
## 1 1 A 4.0 2.6 1.4
## 2 2 A 4.0 2.8 1.2
## 3 3 A 5.0 5.0 0.0
## 4 4 A 0.5 0.0 0.5
## 5 5 A 3.0 2.4 0.6
## 6 1 B 5.0 6.4 -1.4
## 7 2 B 6.0 6.4 -0.4
## 8 3 B 2.0 2.3 -0.3
## 9 4 B 4.0 4.2 -0.2
## 10 5 B 4.0 4.0 0.0
## 11 1 C 4.5 3.3 1.2
## 12 2 C 4.0 1.4 2.6
## 13 3 C 3.5 1.8 1.7
## 14 4 C 2.0 -1.9 3.9
## 15 5 C 3.0 -7.6 10.6
## 16 1 D 2.5 3.1 -0.6
## 17 2 D 4.0 5.0 -1.0
## 18 3 D 6.5 6.6 -0.1
## 19 4 D 4.5 2.7 1.8
## 20 5 D 4.0 6.3 -2.3
## 21 1 E 4.0 0.0 4.0
## 22 2 E 4.0 0.4 3.6
## 23 3 E 3.5 0.6 2.9
## 24 4 E 2.0 -4.0 6.0
## 25 5 E 4.0 -6.3 10.3
modelo1=aov(Mer~Silo+Dia,data=df)
summary(modelo1)## Df Sum Sq Mean Sq F value Pr(>F)
## Silo 4 4.46 1.115 0.690 0.609
## Dia 4 9.76 2.440 1.511 0.246
## Residuals 16 25.84 1.615
AL aplicar el modelo ANOVA se puede observar que no hay diferencias significativas entre los factores Dia y Silo,por lo tanto se rechaza la Ho.
modelo2=aov(Rtd~Silo+Dia,data=df)
summary(modelo2)## Df Sum Sq Mean Sq F value Pr(>F)
## Silo 4 182.53 45.63 8.091 0.000912 ***
## Dia 4 62.01 15.50 2.749 0.064865 .
## Residuals 16 90.24 5.64
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
boxplot(Rtd~Silo,data=df)Al aplicar el boxplot podemos observar que todas las medias son distintas . Además observamos que en el tratamiento A aparecen algunos datos que se alejan del rango, pero no afectan los resultados porque es normal que esto suceda.
tk=TukeyHSD(modelo2)
tk## Tukey multiple comparisons of means
## 95% family-wise confidence level
##
## Fit: aov(formula = Rtd ~ Silo + Dia, data = df)
##
## $Silo
## diff lwr upr p adj
## B-A 2.10 -2.5016327 6.7016327 0.6374197
## C-A -3.16 -7.7616327 1.4416327 0.2656259
## D-A 2.18 -2.4216327 6.7816327 0.6057729
## E-A -4.42 -9.0216327 0.1816327 0.0628520
## C-B -5.26 -9.8616327 -0.6583673 0.0212974
## D-B 0.08 -4.5216327 4.6816327 0.9999980
## E-B -6.52 -11.1216327 -1.9183673 0.0039696
## D-C 5.34 0.7383673 9.9416327 0.0191638
## E-C -1.26 -5.8616327 3.3416327 0.9144393
## E-D -6.60 -11.2016327 -1.9983673 0.0035673
##
## $Dia
## diff lwr upr p adj
## 2-1 0.12 -4.481633 4.721633 0.9999897
## 3-1 0.18 -4.421633 4.781633 0.9999479
## 4-1 -2.88 -7.481633 1.721633 0.3478187
## 5-1 -3.32 -7.921633 1.281633 0.2254054
## 3-2 0.06 -4.541633 4.661633 0.9999994
## 4-2 -3.00 -7.601633 1.601633 0.3107739
## 5-2 -3.44 -8.041633 1.161633 0.1984234
## 4-3 -3.06 -7.661633 1.541633 0.2932674
## 5-3 -3.50 -8.101633 1.101633 0.1859252
## 5-4 -0.44 -5.041633 4.161633 0.9982140
En el tratamiento de los Silos 6 de las medias no tienen mayor diferencia en donde los tratamientos D-B, son prácticamente iguales, existen diferencias entre 4 de las medias siendo los tratamientos E-D las que presentan diferencias significativas.
Las diferencias de las medias de las temperaturas de los Días son prácticamente iguales, es decir que no existe mayor diferencia.
qqnorm(modelo2$residual)
qqline(modelo2$residual)df$Dif=df$Mer-df$Rtd
modelo3=aov(Dif~Silo+Dia,data=df)
summary(modelo3)## Df Sum Sq Mean Sq F value Pr(>F)
## Silo 4 143.77 35.94 7.876 0.00104 **
## Dia 4 32.85 8.21 1.799 0.17835
## Residuals 16 73.02 4.56
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Podemos observar que las temperaturas según el Silo tienen diferencia significativasen cuanto a las temperaturas tomadas con ambos termómetros. Mientras que atendiendo al bloque de los Días la diferencia disminuye en cuanto a las temperaturas tomadas.
df$Dif=df$Mer-df$Rtd
modelo3=aov(Dif~Silo+Dia,data=df)
summary(modelo3)## Df Sum Sq Mean Sq F value Pr(>F)
## Silo 4 143.77 35.94 7.876 0.00104 **
## Dia 4 32.85 8.21 1.799 0.17835
## Residuals 16 73.02 4.56
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
boxplot(Dif~Silo,data=df)Podemos observar que las temperaturas según el Silo tienen diferencia significativasen cuanto a las temperaturas tomadas con ambos termómetros. Mientras que atendiendo al bloque de los Días la diferencia disminuye en cuanto a las temperaturas tomadas. En cuanto a las diferencias entre los tratamientos podemos observar que la media de los tratamientos en cuanto a la temperatura son diferentes entre sí.
tk=TukeyHSD(modelo3)
tk## Tukey multiple comparisons of means
## 95% family-wise confidence level
##
## Fit: aov(formula = Dif ~ Silo + Dia, data = df)
##
## $Silo
## diff lwr upr p adj
## B-A -1.20 -5.3393612 2.9393612 0.8971495
## C-A 3.26 -0.8793612 7.3993612 0.1621002
## D-A -1.18 -5.3193612 2.9593612 0.9025292
## E-A 4.62 0.4806388 8.7593612 0.0250694
## C-B 4.46 0.3206388 8.5993612 0.0316225
## D-B 0.02 -4.1193612 4.1593612 1.0000000
## E-B 5.82 1.6806388 9.9593612 0.0042441
## D-C -4.44 -8.5793612 -0.3006388 0.0325490
## E-C 1.36 -2.7793612 5.4993612 0.8486133
## E-D 5.80 1.6606388 9.9393612 0.0043721
##
## $Dia
## diff lwr upr p adj
## 2-1 0.28 -3.859361 4.419361 0.9995415
## 3-1 -0.08 -4.219361 4.059361 0.9999969
## 4-1 1.48 -2.659361 5.619361 0.8063730
## 5-1 2.92 -1.219361 7.059361 0.2433728
## 3-2 -0.36 -4.499361 3.779361 0.9987672
## 4-2 1.20 -2.939361 5.339361 0.8971495
## 5-2 2.64 -1.499361 6.779361 0.3305617
## 4-3 1.56 -2.579361 5.699361 0.7758647
## 5-3 3.00 -1.139361 7.139361 0.2218781
## 5-4 1.44 -2.699361 5.579361 0.8209553
Podemos observar que las diferencias de las medidas de temperatura tomadas con Mer y Rtd, respecto al Silo son significativas, es decir que 5 de las medias son < a 0.05, en consecuncia cuando haya por lo menos una diferente se rechaza por lo tanto se rechaza la Ho
Ho:Los termómetros electrónicos (Rtd) son tan efectivos como los termómetros tradicionales (Mer) independientemente en el bloque o el tratamiento que se aplique. Ha:Los termómetros electrónicos (Rtd) no son tan efectivos como los termómetros tradicionales(Mer), independientemente en el bloque o el tratamiento que se aplique.
1.Después del análisis y observación de los datos podemos concluir que las mediciones con Rtd no son confiables porque después de haber realizado las pruebas correspondientes se evidencia la poca efectividad del Rtd partiendo de la afirmación que el termómetro de mercurio es altamente eficaz.
2.Tomando los datos Rtd, considerando el Silo como un tratamiento y Día como bloque, se realiza la prueba ANOVA y podemos concluir que los tratamientos (Silos)no son iguales y tiene diferencias significativas, ya que la mayoría son > a 0.05.
3.AL aplicar el modelo ANOVA, atediendo a las mediciones de Mer se concluye que no hay diferencias significativas entre los factores Dia y Silo,por lo tanto se rechaza la Ho.
4.Las conclusiones obtenidas en los incisos anteriores no coinciden, porque en el modelo 1 los datos no evidencian diferencias significativas( > 0.05), lo que confirma la confiabilidad de las medidas de Mer. Mientras que el modelo 2 referentes a las medidas de Rtd si hay diferencias significativas, por los que las medidas de Rtd no son constante.< o.o5.
5.Las medidas de temperatura tomadas con Mer y Rtd, respecto al Silo son significativas, es decir que 5 de las medias son < a 0.05, en consecuncia cuando haya por lo menos una diferente se rechaza por lo tanto se rechaza la Ho.
###PROBLEMA 16
EFECTO DE LOS CATALIZADORES
Efecto de cinco diferentes catalizadores
Se quiere estudiar el efecto de cinco diferentes catalizadores (A, B, C, D y E) sobre el tiempo de reacción de un proceso químico. Cada lote de material sólo permite cinco corridas y cada corrida requier e aproximadamente 1.5 horas, por lo que sólo se pueden realizar cinco corridas diarias. El experimentador decide correr los exp erimentos con un diseño en cuadro latino para controlar activamente a los lotes y días. Los datos obtenidos son:
CATALIZADOS
df=read.csv("https://raw.githubusercontent.com/ELYSAN0382/DISENO-EXPERIMENTAL/main/CATALIZADOR16ELY.csv",sep=";")
df## DIA LOTE CATALIZADOR Y
## 1 1 1 A 8
## 2 1 2 C 11
## 3 1 3 B 4
## 4 1 4 D 6
## 5 1 5 E 4
## 6 2 1 B 7
## 7 2 2 E 2
## 8 2 3 A 9
## 9 2 4 C 8
## 10 2 5 D 2
## 11 3 1 D 1
## 12 3 2 A 7
## 13 3 3 C 10
## 14 3 4 E 6
## 15 3 5 B 3
## 16 4 1 C 7
## 17 4 2 D 3
## 18 4 3 E 1
## 19 4 4 B 6
## 20 4 5 A 8
## 21 5 1 E 3
## 22 5 2 B 8
## 23 5 3 D 5
## 24 5 4 A 10
## 25 5 5 C 8
str(df)## 'data.frame': 25 obs. of 4 variables:
## $ DIA : int 1 1 1 1 1 2 2 2 2 2 ...
## $ LOTE : int 1 2 3 4 5 1 2 3 4 5 ...
## $ CATALIZADOR: chr "A" "C" "B" "D" ...
## $ Y : int 8 11 4 6 4 7 2 9 8 2 ...
df## DIA LOTE CATALIZADOR Y
## 1 1 1 A 8
## 2 1 2 C 11
## 3 1 3 B 4
## 4 1 4 D 6
## 5 1 5 E 4
## 6 2 1 B 7
## 7 2 2 E 2
## 8 2 3 A 9
## 9 2 4 C 8
## 10 2 5 D 2
## 11 3 1 D 1
## 12 3 2 A 7
## 13 3 3 C 10
## 14 3 4 E 6
## 15 3 5 B 3
## 16 4 1 C 7
## 17 4 2 D 3
## 18 4 3 E 1
## 19 4 4 B 6
## 20 4 5 A 8
## 21 5 1 E 3
## 22 5 2 B 8
## 23 5 3 D 5
## 24 5 4 A 10
## 25 5 5 C 8
df$DIA=factor(df$DIA)
df$LOTE=factor(df$LOTE)
df$CATALIZADOR=factor(df$CATALIZADOR)
df$Y=as.double(df$Y)
str(df)## 'data.frame': 25 obs. of 4 variables:
## $ DIA : Factor w/ 5 levels "1","2","3","4",..: 1 1 1 1 1 2 2 2 2 2 ...
## $ LOTE : Factor w/ 5 levels "1","2","3","4",..: 1 2 3 4 5 1 2 3 4 5 ...
## $ CATALIZADOR: Factor w/ 5 levels "A","B","C","D",..: 1 3 2 4 5 2 5 1 3 4 ...
## $ Y : num 8 11 4 6 4 7 2 9 8 2 ...
modelo=aov(Y~DIA+LOTE+CATALIZADOR,data=df)
summary(modelo)## Df Sum Sq Mean Sq F value Pr(>F)
## DIA 4 12.24 3.06 0.979 0.455014
## LOTE 4 15.44 3.86 1.235 0.347618
## CATALIZADOR 4 141.44 35.36 11.309 0.000488 ***
## Residuals 12 37.52 3.13
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Según el análisis de Anova,en el valor encontrado en p de 0.000488 sugiere diferencias significativas entre las medias del factor catalizador.
boxplot(Y~CATALIZADOR,data=df)tk=TukeyHSD(modelo)
tk## Tukey multiple comparisons of means
## 95% family-wise confidence level
##
## Fit: aov(formula = Y ~ DIA + LOTE + CATALIZADOR, data = df)
##
## $DIA
## diff lwr upr p adj
## 2-1 -1.0 -4.564608 2.564608 0.8936609
## 3-1 -1.2 -4.764608 2.364608 0.8166339
## 4-1 -1.6 -5.164608 1.964608 0.6212723
## 5-1 0.2 -3.364608 3.764608 0.9997349
## 3-2 -0.2 -3.764608 3.364608 0.9997349
## 4-2 -0.6 -4.164608 2.964608 0.9816047
## 5-2 1.2 -2.364608 4.764608 0.8166339
## 4-3 -0.4 -3.964608 3.164608 0.9960012
## 5-3 1.4 -2.164608 4.964608 0.7232162
## 5-4 1.8 -1.764608 5.364608 0.5188508
##
## $LOTE
## diff lwr upr p adj
## 2-1 1.0 -2.564608 4.564608 0.8936609
## 3-1 0.6 -2.964608 4.164608 0.9816047
## 4-1 2.0 -1.564608 5.564608 0.4225127
## 5-1 -0.2 -3.764608 3.364608 0.9997349
## 3-2 -0.4 -3.964608 3.164608 0.9960012
## 4-2 1.0 -2.564608 4.564608 0.8936609
## 5-2 -1.2 -4.764608 2.364608 0.8166339
## 4-3 1.4 -2.164608 4.964608 0.7232162
## 5-3 -0.8 -4.364608 2.764608 0.9489243
## 5-4 -2.2 -5.764608 1.364608 0.3365811
##
## $CATALIZADOR
## diff lwr upr p adj
## B-A -2.8 -6.3646078 0.7646078 0.1539433
## C-A 0.4 -3.1646078 3.9646078 0.9960012
## D-A -5.0 -8.5646078 -1.4353922 0.0055862
## E-A -5.2 -8.7646078 -1.6353922 0.0041431
## C-B 3.2 -0.3646078 6.7646078 0.0864353
## D-B -2.2 -5.7646078 1.3646078 0.3365811
## E-B -2.4 -5.9646078 1.1646078 0.2631551
## D-C -5.4 -8.9646078 -1.8353922 0.0030822
## E-C -5.6 -9.1646078 -2.0353922 0.0023007
## E-D -0.2 -3.7646078 3.3646078 0.9997349
Al aplicar la prueba de comparaciones múltiples podemos observar que en laS combinaciones de los tratamientos (B-A,C-A,C-B,D-B,E-B,E-D), no hay diferencias significativas.Sin embargo en las combinaciones de los tratamientos (D-A,E-A,D-C,E-C), si hay diferencias significativas. Por esta razón se rechaza la Ho.
qqnorm(modelo$residuals)
qqline(modelo$residuals) En esta prueba se ve que los datos con respecto a la línea de normalidad,podemos observar que los datos mantienen una distribución normal, solo que al inicio y al final se dispersan un poco.
shapiro.test(modelo$residuals)##
## Shapiro-Wilk normality test
##
## data: modelo$residuals
## W = 0.96606, p-value = 0.5476
Al aplicar la prueba Shapiro podemos interpretar que el valor de p es superior al alfa, por lo tanto se acepta la Ho, y tiene una distribución normal.
library(car)
leveneTest(Y~CATALIZADOR,data=df)## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 4 0.4444 0.7751
## 20
En prueba de Homoscedasticidad aplicado al factor catalizador podemos observar que el valor de p es de 0.7751, es decir < a 0.05, por lo que se acepta la Ho,por lo tanto no hay diferencias significativas.
El experimento se aleatorizó mediante un diseño en cuadro latino en los lotes, mas no en los tiempos.
Hipotesis: HO: El tipo de catalizador no influye en el tiempo de reacción de un proceso quimico. Ha: El tipo de catalizador influye en el tiempo de reacción de un proceso quimico.
Si existen diferencias entre los tratamientos.Los tratamientos donde si hay diferencias significativas son (D-A,E-A,D-C,E-C), Por esta razón se rechaza la Ho.
Los factores ruido, lote y día no afectan el tiempo de reacción del proceso, según la prueba ANOVA.
5.El catalizador es el tratamiento que influye en el tiempo de reacción, el catalizador E es el que reduce mayormente el tiempo de reacción.
RESISTENCIA A LA ADHESIÓN
La resistencia a la torsión de las adhesiones
Para mejorar la resistencia a la torsión de las adhesiones de componentes electrónicos sobre placas, se estudiaron dos tipos de pegamentos (A1 y A2) y tres temperaturas de curado (60, 80 y 100°C). En cada combinación se analizaron dos componentes.
PEGAMENTO
df=read.csv("https://raw.githubusercontent.com/ELYSAN0382/DISENO-EXPERIMENTAL/main/PEGAMENTO20ELY.csv",sep=";")
str(df)## 'data.frame': 12 obs. of 3 variables:
## $ PEGAMENTO : chr "A1" "A1" "A1" "A1" ...
## $ TEMPERATURA: int 60 60 80 80 100 100 60 60 80 80 ...
## $ Y : num 2.5 2.8 3.8 3.4 4 4.2 1.6 1.22 3.2 2.8 ...
df## PEGAMENTO TEMPERATURA Y
## 1 A1 60 2.50
## 2 A1 60 2.80
## 3 A1 80 3.80
## 4 A1 80 3.40
## 5 A1 100 4.00
## 6 A1 100 4.20
## 7 A2 60 1.60
## 8 A2 60 1.22
## 9 A2 80 3.20
## 10 A2 80 2.80
## 11 A2 100 4.30
## 12 A2 100 4.70
df$PEGAMENTO=factor(df$PEGAMENTO)
df$TEMPERATURA=factor(df$TEMPERATURA)
df$Y=as.double(df$Y)
str(df)## 'data.frame': 12 obs. of 3 variables:
## $ PEGAMENTO : Factor w/ 2 levels "A1","A2": 1 1 1 1 1 1 2 2 2 2 ...
## $ TEMPERATURA: Factor w/ 3 levels "60","80","100": 1 1 2 2 3 3 1 1 2 2 ...
## $ Y : num 2.5 2.8 3.8 3.4 4 4.2 1.6 1.22 3.2 2.8 ...
modelo=aov(Y~PEGAMENTO+TEMPERATURA,data=df)
summary(modelo)## Df Sum Sq Mean Sq F value Pr(>F)
## PEGAMENTO 1 0.691 0.691 3.171 0.112807
## TEMPERATURA 2 10.354 5.177 23.754 0.000431 ***
## Residuals 8 1.744 0.218
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
boxplot(Y~TEMPERATURA,data=df,main="Graficos de TEMPERATURA") Las medias de las temperaturas son diferentes, según los resultados del bloxplot
tk=TukeyHSD(modelo)
tk$TEMPERATURA## diff lwr upr p adj
## 80-60 1.27 0.32671873 2.213281 0.0120864252
## 100-60 2.27 1.32671873 3.213281 0.0003298036
## 100-80 1.00 0.05671873 1.943281 0.0388647317
Las prueba de TukeyHSD aplicadas a las temperaturas nos indica que existe diferencia entre las temperatura de 100 a 60.
qqnorm(modelo$residuals)
qqline(modelo$residuals) Al aplicar la prueba de distribución normal podemos observar en la curva de los datos con respecto a la línea de normalidad, que la mayoría de los residuos se encuentran alejados de la línea de la normalidad.
shapiro.test(modelo$residuals)##
## Shapiro-Wilk normality test
##
## data: modelo$residuals
## W = 0.94809, p-value = 0.6092
Segun el valor de p-value = 0.6092, la H0 se acepta.
require(car)
leveneTest(Y~TEMPERATURA,data=df)## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 2 4.4568 0.04516 *
## 9
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Segun los valores arrojados por la prueba de varianza la HO se rechaza porque el valor de p es menor a 0.05; sin embargo la HO es verdadera por lo que se estima hay un error tipo 1.
plot(modelo$residuals)
abline(h=0) #### PRUEBA DE INTERACCION DE LAS VARIABLES
interaction.plot(df$PEGAMENTO,df$TEMPERATURA,df$Y,main="Interaccion entre las variables") La gráfica muestra que la temperatura del curado influye en la resistencia a la torsión de las adhesiones de componentes electrónicos sobre placas, en este caso especifico se evidencia que a mayor temperatura mejor la resistencia, es decir que el curado de 100°C en el mas efectivo en comparación con el curado de 60°C y 80°C.
Ho: La temperatura de curado influye en la resistencia a la torsión de las adhesiones de componentes electrónicos sobre placas.
Ha: La temperatura de curado NO influye en la resistencia a la torsión de las adhesiones de componentes electrónicos sobre placas.
Según el ANOVA, los efectos activos son los curados de temperatura
El curado de 100°C en el mas efectivo en comparación con el curado de 60°C y 80°C.
A mayor temperatura mejor la resistencia, es decir que la resistencia a la torsión es mejor a mayor temperatura, 100°C=4.00, 100°=4.2, 100°=4.30, 100°=4.70.
RESISTENCIA DE CAUCHO VULCANIZADO
Tiempo de curado y el tipo del acelerante
Se desea investigar de qué manera afecta el tiempo de curado y el tipo del acelerante a la resistencia de caucho vulcanizado. Se realiza un experimento y se obtienen los siguientes datos:
CAUCHO
df=read.csv("https://raw.githubusercontent.com/ELYSAN0382/DISENO-EXPERIMENTAL/main/PROBLEMA21%20(3).csv",sep=";")
str(df)## 'data.frame': 18 obs. of 3 variables:
## $ TIEMPO : int -1 -1 0 0 1 1 -1 -1 0 0 ...
## $ ACELERANTE: int -1 -1 -1 -1 -1 -1 0 0 0 0 ...
## $ Y : int 3900 3600 4100 3500 4000 3800 4300 3700 4200 3900 ...
df## TIEMPO ACELERANTE Y
## 1 -1 -1 3900
## 2 -1 -1 3600
## 3 0 -1 4100
## 4 0 -1 3500
## 5 1 -1 4000
## 6 1 -1 3800
## 7 -1 0 4300
## 8 -1 0 3700
## 9 0 0 4200
## 10 0 0 3900
## 11 1 0 4300
## 12 1 0 3600
## 13 -1 1 3700
## 14 -1 1 4100
## 15 0 1 3900
## 16 0 1 4000
## 17 1 1 3600
## 18 1 1 3800
df## TIEMPO ACELERANTE Y
## 1 -1 -1 3900
## 2 -1 -1 3600
## 3 0 -1 4100
## 4 0 -1 3500
## 5 1 -1 4000
## 6 1 -1 3800
## 7 -1 0 4300
## 8 -1 0 3700
## 9 0 0 4200
## 10 0 0 3900
## 11 1 0 4300
## 12 1 0 3600
## 13 -1 1 3700
## 14 -1 1 4100
## 15 0 1 3900
## 16 0 1 4000
## 17 1 1 3600
## 18 1 1 3800
df$TIEMPO=factor(df$TIEMPO)
df$ACELERANTE=factor(df$ACELERANTE)
df$Y=as.double(df$Y)
str(df)## 'data.frame': 18 obs. of 3 variables:
## $ TIEMPO : Factor w/ 3 levels "-1","0","1": 1 1 2 2 3 3 1 1 2 2 ...
## $ ACELERANTE: Factor w/ 3 levels "-1","0","1": 1 1 1 1 1 1 2 2 2 2 ...
## $ Y : num 3900 3600 4100 3500 4000 3800 4300 3700 4200 3900 ...
modelo=aov(Y~TIEMPO+ACELERANTE,data=df)
summary(modelo)## Df Sum Sq Mean Sq F value Pr(>F)
## TIEMPO 2 21111 10556 0.152 0.86
## ACELERANTE 2 114444 57222 0.825 0.46
## Residuals 13 902222 69402
Al aplicar la prueba de ANOVA, podemos observar que el factor tiempo no muestra diferencias significativas, de igual manera el factor acelerante tampoco presenta diferencias significativas.
boxplot(Y~TIEMPO+ACELERANTE,data=df)interaction.plot(df$TIEMPO,df$ACELERANTE,df$Y) Según la prueba de interacion se evidencia que con el tratamiento B, hay mayor resistencia del caucho, también se observa interacción de los resultados de los tratamientos de A y C.
tk=TukeyHSD(modelo)
tk## Tukey multiple comparisons of means
## 95% family-wise confidence level
##
## Fit: aov(formula = Y ~ TIEMPO + ACELERANTE, data = df)
##
## $TIEMPO
## diff lwr upr p adj
## 0--1 50.00000 -351.6061 451.6061 0.9424302
## 1--1 -33.33333 -434.9394 368.2728 0.9739228
## 1-0 -83.33333 -484.9394 318.2728 0.8493245
##
## $ACELERANTE
## diff lwr upr p adj
## 0--1 183.33333 -218.2728 584.9394 0.4708685
## 1--1 33.33333 -368.2728 434.9394 0.9739228
## 1-0 -150.00000 -551.6061 251.6061 0.5979909
Los datos del modelo reflejan que las medias no tienen diferencias significativas, porque el valor de p es > a 0.05.
qqnorm(modelo$residuals)
qqline(modelo$residuals) Al aplicar la prueba de distribución normal podemos observar en la curva de los datos con respecto a la línea de normalidad, que la mayoría de los residuos siguen una distribución normalidad, a diferencia de los últimos datos que se dispersan un poco
shapiro.test(modelo$residuals)##
## Shapiro-Wilk normality test
##
## data: modelo$residuals
## W = 0.94083, p-value = 0.2994
p-value = 0.2994, por lo que se acepta la HO El tiempo de curado no afecta la resistencia del caucho.
library("car")
leveneTest(Y~TIEMPO,data=df)## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 2 0.1373 0.8728
## 15
leveneTest(Y~ACELERANTE,data=df)## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 2 1.789 0.201
## 15
Según la prueba de igualdad de varianza se aceptan las siguientes hipótesis H0= El tiempo de curado no afecta la resistencia del caucho H0= El tipo de acelerante no afecta la resistencia del caucho sin embargo es importante resaltar existe un posble error tipo 1, em cuanto a la segunda HO.
plot(modelo$residuals)
abline(h=0)plot(modelo$fitted.values,modelo$residuals) La primera gráfica de independencia de las muestras de los residuales del modelo evidencian una distribución balanceada sin muestra de sesgos. Mientras tanto la gráfica 2,nos muestra los datos con respecto al grupo, por lo tanto el grupo de acelerador que mostró mayor influencia en la resitencia al caucho fue el acelerante B.
a)El nombre del diseño de experimento utilizado es Diseño Factorial 3x3 con dos replicas y el diseño estadístico ANOVA
H0= El tipo de acelerante no afecta la resistencia del caucho Ha= El tipo de acelerante afecta la resistencia del caucho
El análisis estadístico apropiado para probar las hipótesis que se formuló fue ANOVA.
No existe tiempo de cura mejor ya que el análisis de ANOVA para las medias es mayor es de 0.86 siendo mayor a 0.05 donde se acepta la hipótesis nula.
Entre los acelerantes no hay uno mejor ya que el análisis de ANOVA para las medias es mayor es de 0.46 siendo mayor a 0.05 donde no se rechaza la hipótesis nula.
Al realizar la grafica de interacción podemos observar que la combinación del acelerante B con un tiempo de 60 minutos es el mejor aumentando la resistencia del caucho vulcanizado.
EFECTOS DE FACTORES
Efecto de ambos factores sobre Y
Los siguientes datos corresponden a diseño 3 × 3 con tres réplicas. Interesa investigar el efecto de ambos factores sobre Y, para encontrar las condiciones adecuadas para maximizar
FACTORES
df=read.csv("https://raw.githubusercontent.com/ELYSAN0382/DISENO-EXPERIMENTAL/main/FACTORES26ELY.csv",sep=";")
df## FACTORB FACTORA Y
## 1 B1 A1 10
## 2 B1 A1 6
## 3 B1 A1 14
## 4 B1 A2 60
## 5 B1 A2 73
## 6 B1 A2 79
## 7 B1 A3 44
## 8 B1 A3 35
## 9 B1 A3 28
## 10 B2 A1 3
## 11 B2 A1 5
## 12 B2 A1 1
## 13 B2 A2 88
## 14 B2 A2 70
## 15 B2 A2 76
## 16 B2 A3 38
## 17 B2 A3 22
## 18 B2 A3 26
## 19 B3 A1 1
## 20 B3 A1 2
## 21 B3 A1 1
## 22 B3 A2 71
## 23 B3 A2 71
## 24 B3 A2 69
## 25 B3 A3 29
## 26 B3 A3 20
## 27 B3 A3 22
str(df)## 'data.frame': 27 obs. of 3 variables:
## $ FACTORB: chr "B1" "B1" "B1" "B1" ...
## $ FACTORA: chr "A1" "A1" "A1" "A2" ...
## $ Y : int 10 6 14 60 73 79 44 35 28 3 ...
df## FACTORB FACTORA Y
## 1 B1 A1 10
## 2 B1 A1 6
## 3 B1 A1 14
## 4 B1 A2 60
## 5 B1 A2 73
## 6 B1 A2 79
## 7 B1 A3 44
## 8 B1 A3 35
## 9 B1 A3 28
## 10 B2 A1 3
## 11 B2 A1 5
## 12 B2 A1 1
## 13 B2 A2 88
## 14 B2 A2 70
## 15 B2 A2 76
## 16 B2 A3 38
## 17 B2 A3 22
## 18 B2 A3 26
## 19 B3 A1 1
## 20 B3 A1 2
## 21 B3 A1 1
## 22 B3 A2 71
## 23 B3 A2 71
## 24 B3 A2 69
## 25 B3 A3 29
## 26 B3 A3 20
## 27 B3 A3 22
df$FACTORB=as.factor(df$FACTORB)
df$FACTORA=as.factor(df$FACTORA)
df$Y=as.double(df$Y)
str(df)## 'data.frame': 27 obs. of 3 variables:
## $ FACTORB: Factor w/ 3 levels "B1","B2","B3": 1 1 1 1 1 1 1 1 1 2 ...
## $ FACTORA: Factor w/ 3 levels "A1","A2","A3": 1 1 1 2 2 2 3 3 3 1 ...
## $ Y : num 10 6 14 60 73 79 44 35 28 3 ...
modelo=aov(Y~FACTORB+FACTORA,data=df)
summary(modelo)## Df Sum Sq Mean Sq F value Pr(>F)
## FACTORB 2 230 115 2.697 0.0896 .
## FACTORA 2 21492 10746 251.701 6.94e-16 ***
## Residuals 22 939 43
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
boxplot(Y~FACTORB*FACTORA,data=df)boxplot(Y~FACTORB,data=df)boxplot(Y~FACTORA,data=df)Al aplicar la prueba del boxplot agrupando los tres efectos de ambos factores podemos observar que la cominación de los factor B2 y A2, maximixan las condiciones adecuadas tuvieron mayor efecto sobre el valor de Y.
tk=TukeyHSD(modelo)
tk$FACTORA## diff lwr upr p adj
## A2-A1 68.22222 60.48463 75.95981 2.375877e-14
## A3-A1 24.55556 16.81797 32.29315 1.831701e-07
## A3-A2 -43.66667 -51.40426 -35.92908 4.499290e-12
tk=TukeyHSD(modelo)
tk$FACTORB## diff lwr upr p adj
## B2-B1 -2.222222 -9.959812 5.5153675 0.75354597
## B3-B1 -7.000000 -14.737590 0.7375897 0.08109552
## B3-B2 -4.777778 -12.515368 2.9598120 0.28743636
La prueba TuKey nos permite visualizar que los valores de p en el facor A y B son p > a 0.05, por lo tanto la Ho se acepta. El factor A y B influyen sobre Y, maximizando las condociones adecuadas.
qqnorm(modelo$residuals)
qqline(modelo$residuals)Al aplicar la prueba de distribución normal podemos observar en la curva de los datos con respecto a la línea de normalidad, que la mayoría de los residuos siguen una distribución normalidad, a diferencia de un residuo al inicio y al final que se dispersan un pocoAl aplicar la prueba de distribución normal podemos observar en la curva de los datos con respecto a la línea de normalidad, que la mayoría de los residuos siguen una distribución normalidad, a diferencia de un residuo al inicio y al final que se dispersan un poco.
shapiro.test(modelo$residuals)##
## Shapiro-Wilk normality test
##
## data: modelo$residuals
## W = 0.95665, p-value = 0.3092
La prueba de Shapiro nos permite comprobar que la Ho se acepta porque los datos son > a 0.05.Es decir que Los factores A-B influyen sobre Y, maximizando las condiciones adecuadas.
require(car)
leveneTest(Y~FACTORA,data=df)## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 2 0.8097 0.4568
## 24
leveneTest(Y~FACTORB,data=df)## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 2 0.1475 0.8636
## 24
Según la prueba de homoscedasticidad, el valor p es > a 0.05, en ambos efectos de los tratamientos, es decir que los factores A-B inflyen sobre Y,maximizando las condiciones adecuadas.
interaction.plot(df$FACTORB,df$FACTORA,df$Y) La gráfica de interacciones de las variables se visualiza que la combinación de los efectos de los factores A2-B2 influyen sobre Y, maximizando las condiciones adecuadas.
El modelo estadístico para el problema corresponde a un diseño factorial con salidas 3 × 3 con tres réplicas.
HO: Los factores A y B inflyen sobre Y,maximizando las condiciones adecuadas. Ha; Los factores A y B no inflyen sobre Y,maximizando las condiciones adecuadas
Según la prueba de homoscedasticidad, el valor p es > a 0.05, en ambos efectos de los tratamientos, es decir que los factores A-B inflyen sobre Y,maximizando las condiciones adecuadas.
El efecto de interacción es significativo, la combinación de los efectos de los factores A2-B2 influyen sobre Y, maximizando las condiciones adecuadas.
El mejor tratamiento que maximiza las condiciones adecuadases para Y es la combnación A2-B2.