Punto 1.

FACTOR: Presión. VARIABLE RESPUESTA: Tiempo de fractura (tf)

presion <- c("0.05", "0.05", "0.05",
             "0.10", "0.10", "0.10",
             "0.20", "0.20", "0.20", 
             "0.25", "0.25", "0.25")

presion
##  [1] "0.05" "0.05" "0.05" "0.10" "0.10" "0.10" "0.20" "0.20" "0.20" "0.25"
## [11] "0.25" "0.25"
repeticiones <- c(rep(c("I", "II", "III"), time=4))

repeticiones
##  [1] "I"   "II"  "III" "I"   "II"  "III" "I"   "II"  "III" "I"   "II"  "III"
df <- data.frame(presion, repeticiones); df
df
tf <- c("0.88", "0.87", "0.89", "0.92", "0.94", "0.93", "0.95", "0.94", "0.95", "0.98", "0.99", "0.98")

df <- data.frame(df, tf)
df

Análisis descriptivo.

# Arbol de decisión

library(collapsibleTree)
collapsibleTreeSummary(df,
                       c('presion', 
                         'tf'),
                         collapsed = FALSE)
library(ggplot2)
ggplot(data=df,aes(x=presion, y=tf, fill=presion))+
  geom_col()

class(df$tf)
## [1] "character"
ggplot(data=df,aes(x=presion, y=tf, fill=presion))+
  geom_boxplot()

Análisis inferencial.

Hipótesis

\[H_0: \mu_{p_1}=\mu_{p_2}=\mu_{p_3}=\mu_{p_4}\] \[H_a: H_0 es falsa\]

#ANOVA Modelo 1 
mod = aov(tf ~ presion, data = df)
summary(mod)
##             Df   Sum Sq  Mean Sq F value  Pr(>F)    
## presion      3 0.016567 0.005522   82.83 2.3e-06 ***
## Residuals    8 0.000533 0.000067                    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

-con un p-value menor al 5% existe evidencia estadistica para rechazar la hipotesis nula entonces por lo menos una de las medias de las presiones es diferente

-por lo tanto la presión si tiene efecto en el tiempo de fractura de la madera.

##Comparación de medias posterior al analisis de varianza.

par(mar=c(5,6,3,1))
tt = TukeyHSD(mod, 'presion')
plot(tt, las=1)
abline(v=0, lty=2, col='red', lwd=2)

El intervalo 0.20-0-10 contiene el 0 significa que entre las dos presiones no hay diferencias

Revisión de supuestos.

residuos = mod$residuals
TukeyHSD(mod, conf.level = 0.95)
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = tf ~ presion, data = df)
## 
## $presion
##                 diff          lwr        upr     p adj
## 0.10-0.05 0.05000000  0.028650987 0.07134901 0.0003178
## 0.20-0.05 0.06666667  0.045317653 0.08801568 0.0000396
## 0.25-0.05 0.10333333  0.081984320 0.12468235 0.0000014
## 0.20-0.10 0.01666667 -0.004682347 0.03801568 0.1344163
## 0.25-0.10 0.05333333  0.031984320 0.07468235 0.0002012
## 0.25-0.20 0.03666667  0.015317653 0.05801568 0.0025538
  • Entre las presiones de 0.2 y 0.1, no hay diferencias significativas.
#Normalidad
shapiro.test(residuos)
## 
##  Shapiro-Wilk normality test
## 
## data:  residuos
## W = 0.94102, p-value = 0.5114
  • Se cumple el supuesto de normalidad.
#Homocedasticidad
bartlett.test(residuos, df$presion)
## 
##  Bartlett test of homogeneity of variances
## 
## data:  residuos and df$presion
## Bartlett's K-squared = 0.95233, df = 3, p-value = 0.8128
  • Se cumple el supuesto de homocedastecidad, varianzas iguales.

Modelo diseño.

\[Y_{ij}: \mu + \tau_{i} + \epsilon_{ij}\]

is.factor(df$presion)
df$presion = as.factor(df$presion)

grubbs.test(df$tf)


* No hay valores atipicos. 


## Punto 2.

FACTOR: Catalizadores.
VARIABLE: Rendimiento químico (rq). 

```r
repeticiones <- c("1", "1", "1", "1", 
                  "2", "2", "2", "2",
                  "3", "3", "3", "3",
                  "4", "4", "4", "4", 
                  "5", "5", "5", "5",
                  "6", "6", "6", "6")
repeticiones
##  [1] "1" "1" "1" "1" "2" "2" "2" "2" "3" "3" "3" "3" "4" "4" "4" "4" "5" "5" "5"
## [20] "5" "6" "6" "6" "6"
catalizadores <- c(rep(c("A", "B", "C", "D"), time=6))
catalizadores
##  [1] "A" "B" "C" "D" "A" "B" "C" "D" "A" "B" "C" "D" "A" "B" "C" "D" "A" "B" "C"
## [20] "D" "A" "B" "C" "D"
df <- data.frame(repeticiones, catalizadores); df
df
rendimiento <- c("60", "65", "69", "58", "63", "67", "66", "63", "62", "70", "73", "61", "61", "68", "68", "63", "63", "66", "66", "62", "62", "65", "67", "65")
rendimiento
##  [1] "60" "65" "69" "58" "63" "67" "66" "63" "62" "70" "73" "61" "61" "68" "68"
## [16] "63" "63" "66" "66" "62" "62" "65" "67" "65"
df2 <- data.frame(df, rendimiento)
df2

Análisis descriptivo.

#Arbol de decisión
library(collapsibleTree)
collapsibleTreeSummary(df2,
                       c('catalizadores', 
                         'rendimiento'),
                         collapsed = FALSE)

Análisis inferencial.

Hipótesis.

\[H_0: \mu_{A}=\mu_{B}=\mu_{C}=\mu_{D}\]

\[H_a: H_0 es falsa\]

#ANOVA MODELO2
mod2 = aov(rendimiento ~ catalizadores, data = df2)
summary(mod2)
##               Df Sum Sq Mean Sq F value   Pr(>F)    
## catalizadores  3  192.5   64.15    14.5 3.01e-05 ***
## Residuals     20   88.5    4.43                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Con un p-value menor a 5% se rechaza la hipotesis nula, entonces por lo menos uno de los catalizadores tiene efecto sobre el rendimiento

##Comparación de medias posterior al análisis de varianza.

par(mar=c(5,6,3,1))
tt = TukeyHSD(df2, 'catalizadores')
plot(tt, las=1)
abline(v=0, lty=2, col='red', lwd=2)

Entre las presiones D-A Y C-B no hay diferencias

Revisión de supuestos.

residuos2 = df2$residuals
TukeyHSD(mdf2, conf.level = 0.95)

-Hay diferencia entre los catalizadores excepto entre D-A Y C-B

#Normalidad
shapiro.test(residuos2)

Con un p-value de 54% >5% se cumple el supuesto de normalidad.

#Homocedasticidad
bartlett.test(residuos2, datos2$catalizador)

Con un p-value de 39% >5% se cumple el supuesto de homocedastecidad, varianzas iguales.

MODELO DISEÑO

\[Y_{ij}: \mu + \tau_{i} + \epsilon_{ij}\] ##REVISION DE DATOS ATIPICOS

grubbs.test(datos2$rto)

no hay datos atipicos

##DIFERENTES MODALIDADES DE ANALISIS DE VARIANZA

#2 heteroceasticidad

mod2b =oneway.test(rto ~ catalizador, datos2)
mod2b

#3 incumplimiento de los dos supuestos

##anova permutacional

library(RVAideMemoire)
perm.anova(rto ~ catalizador, data = datos2, nperm = 999)

Hay evidencia estadistica para rechazar la hipotesis nula (pvalue >5%) entonces los catalizadores no tienen el mismo efecto en el rendimiento

##Prueba de Duncan

library(agricolae)

dt= duncan.test(mod2, 'catalizador', console = T)
plot(dt)

-C y B se encuentran entre los mejores catalizadores estadisticamente se podria elegir cualquiera de los 2, recomendaria utilizar el que sea menos costoso

Punto 3.

datos3 = read_xlsx("C://Users//Diego//Desktop//Diseño de exp//datos3.xlsx", sheet = 1)
View(datos3)
head(datos3)
as.factor(datos3$sitio)

##ANALISIS DESCRIPTIVO #Arbol de decisión

collapsibleTreeSummary(datos3,
                       c('bloque', 
                         'sitio',
                         'rta'),
                         collapsed = FALSE)
library(ggplot2)

ggplot(datos3)+
  aes(sitio, rta)+
  geom_point(size=3,
             color='yellow')+
  facet_wrap(~bloque)+
  theme_dark()

##ANALISIS INFERENCIAL \[H_0: \mu_{b_1}=\mu_{b_2}=\mu_{b_3}\]

mod3 = aov(rta ~ bloque + sitio,
          datos3)
summary(mod3)

en este caso p-value el p-value es mayor a 5% (7,89%) se rechaza la hipotesis nula , por lo tanto podemos asumir estadisticamente que no son iguales

eficiencia de bloqueo en este caso H = 13,04 como H>1 sugiere que si valio la pena bloquear

#1. residuales

res_mod3 = mod3$residuals

#2. prueba de normalidad de los residuales 
shapiro.test(res_mod3)

#3. prueba de homoceasticidad
bartlett.test(res_mod3, datos3$sitio)

en ambos casos lo p-value de las pruebas fueron >5% por lo cual se cumplen los suspuestos

##PRUEBA DE TUKEY

TukeyHSD(mod3, conf.level = 0.95)

-solo hay diferencias entre los sitios Sur y Norte

##MODELO DE DISEÑO \[y_{ij} = \mu + \tau_{i} + \beta_j + \epsilon_{ij}\]

grubbs.test(datos3$rta)

no se encontraron datos atipicos

#plot de residuales

plot(datos3$rta,
     res_mod3, pch=16)

si los residuales no tienen un patron (curva, cono etc.) NO estan autocorrelacionados

CONCLUSIÓN: -Valio la pena bloquear -Estadisticamente no difieren los sitios -Se cumplen los suspuestos del anova

Punto 4.

Registro de datos.

region <- c("1", "1", "1",
            "2", "2", "2", 
            "3", "3", "3")
region

estacion <- c(rep(c("I" ,"II", "III"), time=3))
estacion 

df <- data.frame(region, estacion); df
df

producto <- c("C", "B", "A", "A", "C", "B", "B", "A", "C")
producto

df <- data.frame(df, producto)
df

ventas <- c("265", "410", "220", "280", "300", "384", "360", "240", "251")

df <- data.frame(df, ventas)
df

Modelo de diseño.

\[y_{ijk} = \mu + \tau_i + \beta_j + \delta_k + \epsilon_{ijk}\]

Gráficos descriptivos.

library(lattice)
library(ggplot2)
library(collapsibleTree)

bwplot(ventas ~ region |estacion + region, df)

ggplot(df)+
  aes(producto, ventas, fill=producto)+
  geom_boxplot()

collapsibleTreeSummary(df,
                       c("producto", "region", "estacion", "ventas"),
                       collapsed = FALSE)

El producto más vendido es el B.

ANOVA

mod4 = aov(ventas ~ region + estacion + producto,
          df)
summary(mod4)

Hay evidencia estadistica que muestra que por lo menos uno de los productos tiene efecto en las ventas

# Revisión de supuestos.
residuos4 = mod4$residuals
TukeyHSD(mod4, conf.level = 0.95)

Hay diferencias entre los productos B-A Y C-B

# Normalidad.
shapiro.test(residuos4)

No secumple el supuesto de normalidad p-value < 5%

# Homoceasticidad.
bartlett.test(residuos4, df$producto)

Se cumple el supuesto de igualdad de varianzas pvalue 62% > 5%

mod4b =oneway.test(ventas ~ producto,
          df)
mod4b

con un nivel de significancia 0.05% hay suficiente evidencia estadistica para rechazar la hipotesis nula, por lo tanto uno de los productos tiene efecto en las ventas

# Datos atípicos.
grubbs.test(df$ventas)

No se encontraron datos atipicos

tt = TukeyC(mod4, "producto")
plot(tt)

El mejor producto es el B