title: “Examen final” author: “Greta Iraci” date: “02/21/2021” output: html_document: default pdf_document: default

INTRODUCCION

Diseño de bloques completos al azar Cuando se quieren comparar ciertos tratamientos o estudiar el efecto de un factor, es deseable que las posibles diferencias se deban principalmente al factor de interés y no a otros factores que no se consideran en el estudio. Cuando esto no ocurre y existen otros factores que no se controlan o nulifican para hacer la comparación, las conclusiones podrían ser afectadas sensiblemente. Por ejemplo, supongamos que se quieren comprar varias máquinas, si cada máquina es manejada por un operador diferente y se sabe que éste tiene una influencia en el resultado, entonces es claro que el factor operador debe tomarse en cuenta si se quiere comparar a las máquinas de manera justa. Un operador más hábil puede hacer ver a su máquina (aunque ésta sea la peor) como la que tiene el mejor desempeño, lo cual impide hacer una comparación adecuada de los equipos. Para evitar este sesgo hay dos maneras de anular el posible efecto del factor operador: la manera lógica es utilizar el mismo operador en las cuatro máquinas; sin embargo, tal estrategia no siempre es aconsejable, ya que utilizar al mismo sujeto elimina el efecto del factor operador pero restringe la validez de la comparación con dicho operador, y es posible que el resultado no se mantenga al utilizar a otros operadores. La otra forma de anular el efecto operador en la comparación consiste en que cada operador trabaje durante el experimento con cada una de las máquinas. Esta estrategia es la más recomendable, ya que utilizar a todos los operadores con todas las máquinas permite tener resultados de la comparación que son válidos para todos los operadores. Esta última forma de nulificar el efecto de operadores, recibe el nombre de bloqueo.

Problema 1 4-19

Se comprueba el peso en gramos de un material de tres proveedo res: A, B y C, por tres diferentes inspectores: I, II y III, utilizando tres diferentes escalas: 1, 2 y 3. El experimento se lleva a cabo como el siguiente cuadro latino:

datos

df=expand.grid(1:3,1:3)
df$Trat=c("A","B","C","B","C","A","C","A","B")
df$Y=c(16,15,13,10,9,11,11,14,13)
df
##   Var1 Var2 Trat  Y
## 1    1    1    A 16
## 2    2    1    B 15
## 3    3    1    C 13
## 4    1    2    B 10
## 5    2    2    C  9
## 6    3    2    A 11
## 7    1    3    C 11
## 8    2    3    A 14
## 9    3    3    B 13

varialbles

names(df)=c("Inspector","Escala","Trat","Y")
df
##   Inspector Escala Trat  Y
## 1         1      1    A 16
## 2         2      1    B 15
## 3         3      1    C 13
## 4         1      2    B 10
## 5         2      2    C  9
## 6         3      2    A 11
## 7         1      3    C 11
## 8         2      3    A 14
## 9         3      3    B 13

variables

str(df)
## 'data.frame':    9 obs. of  4 variables:
##  $ Inspector: int  1 2 3 1 2 3 1 2 3
##  $ Escala   : int  1 1 1 2 2 2 3 3 3
##  $ Trat     : chr  "A" "B" "C" "B" ...
##  $ Y        : num  16 15 13 10 9 11 11 14 13
##  - attr(*, "out.attrs")=List of 2
##   ..$ dim     : int [1:2] 3 3
##   ..$ dimnames:List of 2
##   .. ..$ Var1: chr [1:3] "Var1=1" "Var1=2" "Var1=3"
##   .. ..$ Var2: chr [1:3] "Var2=1" "Var2=2" "Var2=3"
df$Inspector=factor(df$Inspector)
df$Escala=factor(df$Escala)
df$Trat=factor(df$Trat)

Modelo anova

modelo=aov(Y~Inspector+Escala+Trat,data=df)
summary(modelo)
##             Df Sum Sq Mean Sq F value  Pr(>F)   
## Inspector    2   0.22   0.111       1 0.50000   
## Escala       2  32.89  16.444     148 0.00671 **
## Trat         2  10.89   5.444      49 0.02000 * 
## Residuals    2   0.22   0.111                   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

graficas

boxplot(Y~Escala,data = df)

boxplot(Y~Trat,data = df)

boxplot(Y~Inspector,data = df)

Tukey

tk=TukeyHSD(modelo)
tk
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = Y ~ Inspector + Escala + Trat, data = df)
## 
## $Inspector
##              diff       lwr      upr    p adj
## 2-1  3.333333e-01 -1.269927 1.936593 0.548184
## 3-1  1.776357e-15 -1.603260 1.603260 1.000000
## 3-2 -3.333333e-01 -1.936593 1.269927 0.548184
## 
## $Escala
##          diff       lwr        upr     p adj
## 2-1 -4.666667 -6.269927 -3.0634068 0.0061007
## 3-1 -2.000000 -3.603260 -0.3967402 0.0327189
## 3-2  2.666667  1.063407  4.2699265 0.0186734
## 
## $Trat
##          diff       lwr         upr     p adj
## B-A -1.000000 -2.603260  0.60325985 0.1191149
## C-A -2.666667 -4.269927 -1.06340682 0.0186734
## C-B -1.666667 -3.269927 -0.06340682 0.0464424
plot(tk)

qqnorm(modelo$residuals)
qqline(modelo$residuals)

shapiro.test(modelo$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  modelo$residuals
## W = 0.61728, p-value = 0.0001526
plot(modelo$residuals)
abline(h=0)

#CONCLUSIONES # a) ¿Hay diferencias entre los proveedores?

En el análisis de ANOVA , con un valor p = 0.02000 * (p < 0.05) para los proveedores, se rechaza Ho, concluyendo que hay diferencia significativa en al menos 1 proveedor.

  1. ¿Hay diferencias entre los inspectores y entre las escalas? En el análisis de ANOVA , con un valor p = 0.50000 para los inspectores, se acepta Ho, concluyendo que no hay diferencia significativa entre los instructores. Entre las escalas con un valor p = 0.00671 ** (p < 0.05), se rechaza Ho, concluyendo que hay diferencias significativas en al menos 1 escala.

  2. Si el peso debe ser 15 g, ¿cuál proveedor es mejor? El proveedor A, es el mejor proveedor porque es el que más se acerca al peso esperado de 15g.

  3. Si algún factor de bloque es no significativo, elimínelo y haga el análisis adecuado. Se elimina el factor de bloque de los inspectores, ya que se concluyó que no tiene efecto en la variable respuesta, al tener una p < 0.05 por lo tanto no hay diferencia significativa. Al hacer los análisis nuevamente se observó que las escalas y los proveedores seguían teniendo diferencia significativa, pero con un mayor grado de significancia.

Nota: Es importante tomar en cuenta que los datos no cumplen con los supuestos de normalidad e independencia de la ANOVA, por lo que el estudio no es reproducible.

PROBLEMA 14 CAP 4

Una de las variables críticas en el proceso de ensamble del brazo lector de un disco duro es el ángulo que éste forma con el cuerpo prin cipal de la cabeza lectora. Se corre un experimento con el objetivo de comparar dos equipos que miden dicho ángulo en unidades de radianes. Se decide utilizar como factor de bloque a los operadores de los equipos. Los resultados se muestran en la siguiente tabla: #Datos

Y=c(1.328,1.113,0.985,1.057,1.316,1.144,1.553,1.485,1.310,1.386,1.273,0.789,0.985,0.671,1.134,0.554,1.412,1.386,0.917,1.289,1.269,1.093,1.268,0.984,1.091,1.087,1.195,1.482,1.380,1.442,1.036,0.201,0.783,0.900,1.108,0.916,1.129,1.434,1.132,1.223,1.440,1.150,1.079,1.190,1.389,1.247,1.611,1.617,1.445,1.574,1.454,1.018,1.063,1.050,1.219,0.997,1.602,1.538,1.583,1.478)

df=expand.grid(1:10,1:2,1:3)
names(df)=c("Replica","Equipo","Operador")
df$Y=Y
df$Operador=factor(df$Operador)
df$Equipo=factor(df$Equipo)

df
##    Replica Equipo Operador     Y
## 1        1      1        1 1.328
## 2        2      1        1 1.113
## 3        3      1        1 0.985
## 4        4      1        1 1.057
## 5        5      1        1 1.316
## 6        6      1        1 1.144
## 7        7      1        1 1.553
## 8        8      1        1 1.485
## 9        9      1        1 1.310
## 10      10      1        1 1.386
## 11       1      2        1 1.273
## 12       2      2        1 0.789
## 13       3      2        1 0.985
## 14       4      2        1 0.671
## 15       5      2        1 1.134
## 16       6      2        1 0.554
## 17       7      2        1 1.412
## 18       8      2        1 1.386
## 19       9      2        1 0.917
## 20      10      2        1 1.289
## 21       1      1        2 1.269
## 22       2      1        2 1.093
## 23       3      1        2 1.268
## 24       4      1        2 0.984
## 25       5      1        2 1.091
## 26       6      1        2 1.087
## 27       7      1        2 1.195
## 28       8      1        2 1.482
## 29       9      1        2 1.380
## 30      10      1        2 1.442
## 31       1      2        2 1.036
## 32       2      2        2 0.201
## 33       3      2        2 0.783
## 34       4      2        2 0.900
## 35       5      2        2 1.108
## 36       6      2        2 0.916
## 37       7      2        2 1.129
## 38       8      2        2 1.434
## 39       9      2        2 1.132
## 40      10      2        2 1.223
## 41       1      1        3 1.440
## 42       2      1        3 1.150
## 43       3      1        3 1.079
## 44       4      1        3 1.190
## 45       5      1        3 1.389
## 46       6      1        3 1.247
## 47       7      1        3 1.611
## 48       8      1        3 1.617
## 49       9      1        3 1.445
## 50      10      1        3 1.574
## 51       1      2        3 1.454
## 52       2      2        3 1.018
## 53       3      2        3 1.063
## 54       4      2        3 1.050
## 55       5      2        3 1.219
## 56       6      2        3 0.997
## 57       7      2        3 1.602
## 58       8      2        3 1.538
## 59       9      2        3 1.583
## 60      10      2        3 1.478
modelo=aov(Y~Equipo+Operador,data=df)
summary(modelo)
##             Df Sum Sq Mean Sq F value  Pr(>F)   
## Equipo       1  0.493  0.4925   8.090 0.00621 **
## Operador     2  0.589  0.2944   4.835 0.01156 * 
## Residuals   56  3.409  0.0609                   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
boxplot(Y~Equipo,data=df)

boxplot(Y~Operador,data=df)

boxplot(Y~Equipo*Operador,data=df)

tk=TukeyHSD(modelo)
tk
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = Y ~ Equipo + Operador, data = df)
## 
## $Equipo
##        diff        lwr         upr     p adj
## 2-1 -0.1812 -0.3088231 -0.05357689 0.0062055
## 
## $Operador
##         diff          lwr       upr     p adj
## 2-1 -0.04670 -0.234553611 0.1411536 0.8214765
## 3-1  0.18285 -0.005003611 0.3707036 0.0580021
## 3-2  0.22955  0.041696389 0.4174036 0.0129494
qqnorm(modelo$residuals)
qqline(modelo$residuals)

shapiro.test(modelo$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  modelo$residuals
## W = 0.96139, p-value = 0.05502
require(car)
## Loading required package: car
## Loading required package: carData
leveneTest(Y~Equipo,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value  Pr(>F)  
## group  1  4.1246 0.04686 *
##       58                  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
leveneTest(Y~Operador,data=df)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  2  0.1849 0.8316
##       57
plot(modelo$residuals)
abline(h=0)

# CONCLUSIONES 1.- Hay diferencias significativas entre los operdores y entre los equipos 2.- no hay diferencias entre los operadores y los equipos( cuando esto ocurre mejor es eliminar las interacciones en el modelo)

3.-cuando se visualiza el boxplot se evidencias significativas entre el 3.1 y el 2.2 3.-cuando analizamos la curva de normalidad del modelo residual. la mayoria sigue la normalidad , la prueba es bastante robusta ,gerenralmente se acepta cierto diferencia 4,- segun los resultados de la prueba de shapiro no se puede rechazar la hipotesis nula .

Problema 22 cap 3

Una compañía distribuidora ubicada en los suburbios está interesada en estudiar la diferencia en costos (tiempo y gasolina) entre las cuatro rutas (A, B, C, D) que llevan a la zona comercial, más importante para ellos, en el otro extremo de la ciudad. Deciden correr un experimento en cuadro grecolatino controlando los factores de bloque chofer, marca de vehículo (a, b, c, d) y día de la semana. El experimento se repite en dos semanas diferentes, en las cuales no hay días festivos ni quincenas. Los costos observados en pesos se muestran en la siguiente tabla:

Diferencia en costos con relación a tiempo en las diferentes rutas.

df=read.csv("https://raw.githubusercontent.com/yirleymorales/DisenoExperimental/main/22proa.csv")
df 
##    Dia Chofer mv Rutas   Y
## 1    1      1  1     D 825
## 2    1      2  4     A 650
## 3    1      3  2     C 700
## 4    1      4  3     B 475
## 5    2      1  4     C 585
## 6    2      2  1     B 540
## 7    2      3  3     D 650
## 8    2      4  2     A 560
## 9    3      1  2     B 550
## 10   3      2  3     C 580
## 11   3      3  1     A 635
## 12   3      4  4     D 650
## 13   4      1  3     A 580
## 14   4      2  2     D 850
## 15   4      3  4     B 459
## 16   4      4  1     C 670

variables

str(df)
## 'data.frame':    16 obs. of  5 variables:
##  $ Dia   : int  1 1 1 1 2 2 2 2 3 3 ...
##  $ Chofer: int  1 2 3 4 1 2 3 4 1 2 ...
##  $ mv    : int  1 4 2 3 4 1 3 2 2 3 ...
##  $ Rutas : chr  "D" "A" "C" "B" ...
##  $ Y     : int  825 650 700 475 585 540 650 560 550 580 ...
df$Dia=factor(df$Dia)
df$Chofer=factor(df$Chofer)
df$mv=factor(df$mv)
df$Rutas=factor(df$Rutas)
modelo=aov(Y~Dia+Chofer+mv+Rutas,data=df)
summary(modelo)
##             Df Sum Sq Mean Sq F value  Pr(>F)   
## Dia          3  15003    5001   6.913 0.07331 . 
## Chofer       3   9935    3312   4.578 0.12169   
## mv           3  31160   10387  14.358 0.02765 * 
## Rutas        3 114658   38219  52.833 0.00427 **
## Residuals    3   2170     723                   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
boxplot(Y~Rutas,data=df)

tk=TukeyHSD(modelo)
tk
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = Y ~ Dia + Chofer + mv + Rutas, data = df)
## 
## $Dia
##       diff       lwr      upr     p adj
## 2-1 -78.75 -170.5263  13.0263 0.0743779
## 3-1 -58.75 -150.5263  33.0263 0.1504518
## 4-1 -22.75 -114.5263  69.0263 0.6685967
## 3-2  20.00  -71.7763 111.7763 0.7373930
## 4-2  56.00  -35.7763 147.7763 0.1673898
## 4-3  36.00  -55.7763 127.7763 0.3863475
## 
## $Chofer
##       diff       lwr      upr     p adj
## 2-1  20.00  -71.7763 111.7763 0.7373930
## 3-1 -24.00 -115.7763  67.7763 0.6377097
## 4-1 -46.25 -138.0263  45.5263 0.2488794
## 3-2 -44.00 -135.7763  47.7763 0.2737150
## 4-2 -66.25 -158.0263  25.5263 0.1138569
## 4-3 -22.25 -114.0263  69.5263 0.6810609
## 
## $mv
##       diff       lwr        upr     p adj
## 2-1  -2.50  -94.2763  89.276296 0.9990107
## 3-1 -96.25 -188.0263  -4.473704 0.0440514
## 4-1 -81.50 -173.2763  10.276296 0.0681414
## 3-2 -93.75 -185.5263  -1.973704 0.0472554
## 4-2 -79.00 -170.7763  12.776296 0.0737817
## 4-3  14.75  -77.0263 106.526296 0.8617463
## 
## $Rutas
##        diff       lwr        upr     p adj
## B-A -100.25 -192.0263  -8.473704 0.0394857
## C-A   27.50  -64.2763 119.276296 0.5547292
## D-A  137.50   45.7237 229.276296 0.0164481
## C-B  127.75   35.9737 219.526296 0.0202398
## D-B  237.75  145.9737 329.526296 0.0033725
## D-C  110.00   18.2237 201.776296 0.0306682
plot(tk)