Introducción diseños factoriales - diseño de experimentos de dos factores

Docente: Delio SALGADO.

2024-05-16

Diseño factorial - 2 factores.

En muchos experimentos interviene el estudio de los efectos de dos o más factores. En general, los diseños factoriales son los más eficientes para este tipo de experimentos. Por diseño factorial se entiende que en cada ensayo o réplica completa del experimento se investigan todas las combinaciones posibles de los niveles·de los factores. Por ejemplo, si el factor \(A\) tiene \(a\) niveles y el factor \(B\) tiene \(b\) niveles, cada réplica contiene todas las \(ab\) combinaciones de los tratamientos.

Los tipos más simples de diseños factoriales incluyen únicamente dos factores o conjuntos de tratamientos. Hay \(a~niveles\) del \(factor~A\) y \(b~niveles\) del \(factor~B\), los cuales se disponen en un diseño factorial; es decir, cada réplica del experimento contiene todas las \(ab~ combinaciones\) de los tratamientos. En general, hay \(n~réplicas\)

Situación inicial.

Un ingeniero está diseñando una batería que se usará en un dispositivo que se someterá a variaciones de temperatura extremas. El único parámetro del diseño que puede seleccionar en este punto es el material de la placa o ánodo de la batería, y tiene tres elecciones posibles. Cuando el dispositivo esté fabricado y se envíe al campo, el ingeniero no tendrá control sobre las temperaturas extremas en las que operará el dispositivo, pero sabe por experiencia que la temperatura probablemente afectará la vida efectiva de la batería. Sin embargo, la temperatura puede controlarse en el laboratorio donde se desarrolla el producto para fines de prueba. El ingeniero decide probar los tres materiales de la placa con tres niveles de temperatura 15°F, 70°F y 125°F, ya que estos niveles de temperatura son consistentes con el medio ambiente donde se usará finalmente el producto. Se prueban cuatro baterías con cada combinación del material de la placa y la temperatura, y las 36 pruebas se corren de manera aleatoria.

Temperatura
15 F
70 F
125 F
Material Material 1 130 155 34 40 20 70
Material 1 74 180 80 75 82 58
Material Material 2 150 188 136 122 25 70
Material 2 159 126 106 115 58 45
Material Material 3 138 110 174 120 96 104
Material 3 168 160 150 139 82 60

Modelo de datos

Aunque el modelo estadístico se puede expresar de distintas maneras, suele utilizarse el modelo de los efectos:

\[y_{ijk}=\mu+\tau_i+\beta_j+ (\tau\beta)_{ij} + \epsilon_{ijk} \\ i=1,2,...,a \\ j=1,2,...,b \\k=1,2,...,n\]

Donde:

  • \(\mu:~media~global\)
  • \(\tau_i: efecto~i-ésimo~nivel~del~factor~A\)
  • \(\beta_j: efecto~del~j-ésimo~nivel~del~factor~B\)
  • \((\tau\beta)_{ij}: efecto~de~interacción~entre~\tau_i~y~\beta_j\)
  • \(\epsilon_{ijk}:~error~aleatorio\)

Notación usada

Total observaciones \(i-ésimo\) nivel del \(Factor~A\) y su media

\[y_{i..}=\sum_{j=1}^b \sum_{k=1}^n y_{ijk}\]

\[\bar{y_{i..}}=\frac{y_{i..}}{bn}\]

Total observaciones \(j-ésimo\) nivel del \(Factor~B\) y su media

\[y_{.j.}=\sum_{i=1}^a \sum_{k=1}^n y_{ijk}\]

\[\bar{y_{.j.}}=\frac{y_{.j.}}{an}\]

Total observaciones celda \(ij-ésima\) y su media

\[y_{ij.}=\sum_{k=1}^n y_{ijk}\]

\[\bar{y_{ij.}}=\frac{y_{ij.}}{n}\]

Total global y su media

\[y_{...}=\sum_{i=1}^a \sum_{j=1}^b \sum_{k=1}^n y_{ijk}\]

\[\bar{y_{...}}=\frac{y_{...}}{abn}\]

Análisis de varianza ANOVA

1. Planteamiento de hipótesis

Las hipótesis para el presente diseño de experimentos son las siguientes:

a. Hipótesis para el \(Factor~A\)

\[H_0: \tau_1 =\tau_2=...=\tau_a = 0 \\ H_1: \tau_i \neq 0, ~para~al~menos~un~i\]

b. Hipótesis para el \(Factor~B\)

\[H_0: \beta_1 =\beta_2=...=\beta_b = 0 \\ H_1: \beta_j \neq 0, ~para~al~menos~un~j\]

b. Hipótesis para la interacción \(\tau \beta\)

\[H_0: (\tau\beta)_{ij} = 0~para~toda~i,j\\ H_1: (\tau\beta)_{ij} \neq 0, ~para~al~menos~un~i,~j \\ i=1,2,...,a \\ j=1,2,...,b\]

2. Cálculo de sumas de cuadrados \(SS\)

Los cálculos para las sumas de cuadrados son los siguientes:

2.1 Suma de cuadrados \(SS_A\) \(SS_B\) para los efectos principales

\[SS_A= \left[\frac{1}{bn} \sum_{i=1}^a y_{i..}^2\right] - \frac{y_{...}^2}{abn}\]

\[SS_B= \left[\frac{1}{an} \sum_{i=1}^a y_{.j.}^2\right] - \frac{y_{...}^2}{abn}\]

2.2 Suma de cuadrados \(SS_{AB}\) para la interacción

\[SS_{AB}= \left[ \frac{1}{n} \sum_{i=1}^a \sum_{j=1}^b y_{ij.}^2\right] - \frac{y_{...}^2}{abn} - SS_A - SS_B\]

2.3 Suma de cuadrados \(SS_{total}\) del total

\[SS_{total}= \left[ \sum_{i=1}^a \sum_{j=1}^b \sum_{k=1}^n y_{ijk}^2 \right] - \frac{y_{...}^2}{abn} \]

2.4 Suma de cuadrados \(SS_{error}\) del error

La suma de cuadrados del error \(SS_{error}\) se calculan de la siguiente manera:

\[SS_{total} = SS_{A} + SS_{B} + SS_{AB} + SS_{error}\]

Por lo tanto, la suma de cuadrados del error es:

\[SS_{error} = SS_{total} - SS_{A} - SS_{B} - SS_{AB}\]

3. Cálculo de grados de libertad \(GL\)

3.1 Grados de libertad \(GL_A\) \(GL_B\) para los efectos prinicipales:

\[GL_A=a-1\]

\[GL_B=b-1\]

3.2 Grados de libertad \(GL_{AB}\) para la interacción

\[GL_{AB}=(a-1)(b-1)\]

3.3 Grados de libertad \(GL_{error}\) para el error

\[GL_{error}=ab(n-1)\]

3.4 Grados de libertad \(GL_{total}\) para el total

\[GL_{total}=abn-1\]

4. Cálculos de cuadrados medios \(MS\)

Los cálculos para los cuadrados medios \(MS\) son los siguientes:

4.1 Cuadrados medios \(MS_A\) \(MS_B\) para los efectos principales

\[MS_A=\frac{SS_A}{GL_A}\]

\[MS_B=\frac{SS_B}{GL_B}\]

4.2 Cuadrados medios \(MS_{AB} para la interacción\)

\[MS_{AB}=\frac{SS_{AB}}{GL_{AB}}\]

4.3 Cudrados medios \(MS_{error}\) para el error

\[MS_{error}=\frac{SS_{error}}{GL_{error}}\]

4.4 Cudrados medios \(MS_{total}\) para el total

\[MS_{total}=\frac{SS_{total}}{GL_{total}}\]

5. Cálculo de estadísticos de prueba \(F_0\)

\[F_o~(A) = \frac{MS_{A}}{MS{error}}\]

\[F_o~(B) = \frac{MS_{B}}{MS{error}}\]

\[F_o~(AB) = \frac{MS_{AB}}{MS{error}}\]

\[Si~F_0 > F_{\alpha,GL_{numerador},GL_{error}{}} \rightarrow Rechazo~H_0\]

Estimación de parámetros del modelo

\[y_{ijk}=u+\tau_i+\beta_j+(\tau\beta)_{ij}+ \epsilon_{ijk} \\ i=1,2,...,a \\ j=1,2,...,b \\k=1,2,...,n\]

Donde:

  • \(\mu:~media~global\)
  • \(\tau_i: efecto~del~nivel~i-ésimo~del~factor~A\)
  • \(\beta_j: efecto~del~nivel~j-ésimo~del~factor~B\)
  • \((\tau\beta)_ij: efecto~de~la~interacción~entre~\tau_i~y~\beta_j\)
  • \(\epsilon_{ijk}:~error~aleatorio\)

Estimación de la media global \(\mu\)

Si \(\hat{\mu}\) es un estimador para la media global \(\mu\) entonces:

\[\hat{\mu}=\bar{y_{...}}\]

Estimación para el efecto del \(i-ésimo\) nivel del factor A \(\tau_i\)

Si \(\hat{\tau_i}\) es un estimador para el efecto \(\tau\) del nivel \(i\) del Factor A entonces:

\[\hat{\tau_i}=\bar{y_{i...}}-\bar{y_{...}} \\ i= 1,2,...,a\]

Estimación para el efecto del \(j-ésimo\) nivel del factor B \(\beta_j\)

Si \(\hat{\beta_j}\) es un estimador para el efecto \(\beta\) del nivel \(j\) del Factor B entonces:

\[\hat{\beta_j}=\bar{y_{.j..}}-\bar{y_{...}} \\ j= 1,2,...,b\]

Estimación para el efecto de la interacción entre \(\tau_i y \beta_j\)

Si \(\hat{(\tau\beta)_{ij}}\) es un estimador para el efecto \((\tau\beta)_{ij}\) de la interacción entre Factor A y Factor B, entonces:

\[\hat{(\tau\beta)_{ij}}=\bar{y_{ij.}}-\bar{y_{i..}} - \bar{y_{.j.}} - \bar{y_{i..}} \\ i= 1,2,...,a \\ \\ j= 1,2,...,b \]

Residuales \(e_{ijk}\)

Se definen los residuales \(e_{ijk}\) como la diferencia entre la observación real \(y_{ijk}\) y la observación estimada por el modelo de datos \(\hat{y_{{ijk}}}\):

\[e_{ijk}= y_{ijk} - \hat{y_{ijk}}\]

La estimación de las observaciones \(y_{ijk}\) está dado por:

\[\hat{y_{{ijk}}}= \bar{y_{ij.}}\]

Por lo que los residuales \(e_{ijk}\)

\[e_{ijk} = y_{ijk} - \bar{y_{ij.}}\]

Ejemplo en \(RStudio\) - ANOVA

Tomaremos como ejemplo para resolver en RStudio la situación inicial en la que:

Un ingeniero está diseñando una batería que se usará en un dispositivo que se someterá a variaciones de temperatura extremas. El único parámetro del diseño que puede seleccionar en este punto es el material de la placa o ánodo de la batería, y tiene tres elecciones posibles. Cuando el dispositivo esté fabricado y se envíe al campo, el ingeniero no tendrá control sobre las temperaturas extremas en las que operará el dispositivo, pero sabe por experiencia que la temperatura probablemente afectará la vida efectiva de la batería. Sin embargo, la temperatura puede controlarse en el laboratorio donde se desarrolla el producto para fines de prueba. El ingeniero decide probar los tres materiales de la placa con tres niveles de temperatura 15°F, 70°F y 125°F, ya que estos niveles de temperatura son consistentes con el medio ambiente donde se usará finalmente el producto. Se prueban cuatro baterías con cada combinación del material de la placa y la temperatura, y las 36 pruebas se corren de manera aleatoria.

Temperatura
15 F
70 F
125 F
Material Material 1 130 155 34 40 20 70
Material 1 74 180 80 75 82 58
Material Material 2 150 188 136 122 25 70
Material 2 159 126 106 115 58 45
Material Material 3 138 110 174 120 96 104
Material 3 168 160 150 139 82 60

Las hipótesis correspondientes al experimento anterior son las siguientes:

Para el efecto del \(Factor~A:~Material\)

\[H_0: \tau_1= \tau_2 = \tau_3 = 0 \\ H_1: \tau_i \neq 0 ~para~al~menos~un~i \\ i=1,2,3\]

Para el efecto del \(Factor~B:~Temperatura\)

\[H_0: \beta_1= \beta_2 = \beta_3 = 0 \\ H_1: \beta_j \neq 0 ~para~al~menos~un~j \\ j=1,2,3\]

Para el efecto de la interacción \(\tau \beta\)

\[H_0: (\tau\beta)_{ij} = 0~para~toda~i,j\\ H_1: (\tau\beta)_{ij} \neq 0, ~para~al~menos~un~i,~j \\ i=1,2,3 \\ j=1,2,3\]

# ----------------------- Análisis de varianza -----------------------
# --- Importamos datos del experimento a un dataframe llamado datos ---

library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")

# ------------------ Establecemos los factores ------------------

datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)

# ------------- Planteamos el modelo de datos ------------- 

modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))

# ------------- Realizamos ANOVA ------------- 

anova <- aov(modelo)
summary(anova)
##                                  Df Sum Sq Mean Sq F value   Pr(>F)    
## datos$material                    2  10684    5342   7.911  0.00198 ** 
## datos$temperatura                 2  39119   19559  28.968 1.91e-07 ***
## datos$material:datos$temperatura  4   9614    2403   3.560  0.01861 *  
## Residuals                        27  18231     675                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
# ------------ Estadísticos teóricos ------------
# ----------- Para el Factor A ------------- 
qf(0.05,2,27, lower.tail = FALSE)
## [1] 3.354131
# ----------- Para el Factor B ------------- 
qf(0.05,2,27,lower.tail = FALSE)
## [1] 3.354131
# ----------- Para el Interacción AB ------------- 
qf(0.05,4,27,lower.tail = FALSE)
## [1] 2.727765

Según los resultados del ANOVA tenemos las siguientes conclusiones.

  • Para el Factor A: material, El estadístico de prueba \(F_0(A)\) resultó en \(F_0(A)=7,911\) y el estadístico teórico para un nivel de significancia \(\alpha=0.05\) resultó en \(F_{0.05,~2,~27}=3,354131\). Como \(F_0(A) > F_{0.05,~2,27 }\) entonces rechazo \(H_0\) asociada al efecto del Factor A: material, y concluyo que al menos un tipo de material tiene efecto en el tiempo de duración de la batería.

  • Para el Factor B: temperatura, El estadístico de prueba \(F_0(B)\) resultó en \(F_0(B)= 28,968\) y el estadístico teórico para un nivel de significancia \(\alpha=0.05\) resultó en \(F_{0.05,~2,~27}=3,354131\). Como \(F_0(B) > F_{0.05,~2,27 }\) entonces rechazo \(H_0\) asociada al efecto del Factor B: temperatura, y concluyo que al menos una de las temperaturas tiene efecto en el tiempo de duración de la batería.

  • Para la interacción entre material y temperatura, El estadístico de prueba \(F_0(AB)\) resultó en \(F_0(AB)= 3,560\) y el estadístico teórico para un nivel de significancia \(\alpha=0.05\) resultó en \(F_{0.05,~4,~27}=2,727765\). Como \(F_0(AB) > F_{0.05,~4,27 }\) entonces rechazo \(H_0\) asociada al efecto de la interacción entre Factor A y Factor B: y concluyo que al existe interacción entre el material y la temperatura.

Ejemplo en \(RStudio\) - Verificación supuesto de normalidad.

Verificación gráfica

# ---------- Realizamos el análisis de varianza --------------

library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)

# -- Realizamos la gráfica cuantil - cuantil de los residuales del ANOVA --

library(car)
qqPlot (anova, main= "Gráfico Cuantil - Cuantil", id=FALSE)

A partir del gráfico cuantil-cuantil no deberíamos dudar de la normalidad de los datos, aunque el residual “más negativo” parece no ajustarse de la mejor forma a la recta.

Verificación analítica mediante Shapiro-Wilk.

Para la prueba tenemos las siguientes hipótesis:

\[H_0: e_{ijk} \sim N(0, \sigma^2) \\ H_1: e_{ijk} \nsim N(0, \sigma^2) \\ i=1,2,3 \\ j=1,2,3 \\ k=1,2,3,4 \]

# ---------- Realizamos el análisis de varianza --------------

library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)

# -- Realizamos la prueba de Normalidad Shapiro - Wilk --

shapiro.test(modelo$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  modelo$residuals
## W = 0.97606, p-value = 0.6117

El estadístico de prueba \(W\) para la prueba de Shapiro - Wilk resultó ser igual a \(W = 0,97606\) se debe comparar con el estadístico teórico \(W_{1-\alpha}\) con nivel de significancia \(\alpha=0.05\) y \(36\) residuales. Este valor de tabla resulta ser \(W_{0,95}=0,986\). Cómo \(W<W{1-\alpha}\) no existe evidencia estadística suficiente para rechazar \(H_o\) por lo que se concluye que los residuales provienen de una distribución normal según el contraste de Shapiro - Wilk

Ejemplo en \(RStudio\) - Verificación de Homocedasticidad.

Verificación gráfica - homocedasticidad.

# ---------- Realizamos el análisis de varianza --------------

library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)

# ----- Graficamos valores predichos vs Residuales -----

predichos <- anova$fitted.values
residuales <- anova$residuals
plot(predichos,residuales, main="Predichos VS Residuales", xlab="Valores predichos", ylab="Residuales", ylim = c(-60,45), xlim=c(40,160))

En la verificación gráfica de la homocedasticidad no se observa patrón claro alguno, por lo que no existe evidencia gráfica para dudar de la homocedasticidad. Aunque, es importante revisar los residuales que poseen valores extremos.

Verificación analítica mediante Bartlett

La cantidad de tratamientos se puede calcular de la siguiente manera:

\[Cantidad~tratamientos=ab\]

Para el ejemplo \(a=3\) \(b=3\) por lo que la cantidad de tratamientos es igual a \(9\)

Para la prueba tenemos las siguientes hipótesis:

\[H_0: \sigma_1^2 = \sigma_2^2 = \sigma_3^2 = \sigma_4^2 = \sigma_5^2= \sigma_6^2 = \sigma_7^2 = \sigma_8^2 = \sigma_9^2 =\sigma^2 \\ H_1: \sigma_i^2 \neq \sigma_j^2~para~al~menos~un~par~(i,j)~con~i \neq j \\ i,j=1,2,3,4,5,6,7,8,9\]

# ---------- Realizamos el análisis de varianza --------------

library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)

# ----- Prueba de Bartlett -----

#datos1 <- datos %>% mutate(grupos = sort(rep(1:9, 4)))
bartlett.test(modelo$residuals~datos$tratamiento)
## 
##  Bartlett test of homogeneity of variances
## 
## data:  modelo$residuals by datos$tratamiento
## Bartlett's K-squared = 5.2354, df = 8, p-value = 0.7321
# ----- Estadístico teórico -----

qchisq(0.05,8,lower.tail = FALSE)
## [1] 15.50731

La prueba de Bartlett arrojó un estadístico de prueba \(X_0^2= 5.2354\), el estadístico teórico para nivel de significancia \(\alpha=0.05\) y \(ab-1\) grados de libertad de los tratamientos resulta en \(X_{0.05,~8}^2=15,50731\). Como \(X_0^2<X_{\alpha,~ab-1}\) entonces no existe evidencia suficiente para rechazar \(H_0\) por lo que las varianzas de los tratamientos son iguales.

Ejemplo en \(RStudio\) - Verificación de independencia.

Verificación gráfica - independencia.

Para la verificación gráfica de la independencia supondremos que los las observaciones se realizaron en el mismo orden mostrado en la tabla típica de la Situación inicial.

# ---------- Realizamos el análisis de varianza --------------

library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)

# ----- Grafico residuales como serie de tiempo -----

Orden_de_corrida <- c(1:36)
residuales <- anova$residuals
plot(Orden_de_corrida, residuales, xlab="Tiempo", ylab="Residuales", main="Orden de Corrida vs Residuales",xlim=c(0,36), ylim=c(-70,60))

En el gráfico de Orden de corrida VS Residuales no se observa un patrón claro en los datos, por lo que no existe evidencia para dudar sobre la independencia entre los residuales.

Verificación analítica independencia - Prueba Durbin - Watson

Para la realización de la prueba de independencia se tienen las siguientes hipótesis:

\[H_0: \rho = 0 \\ H_1: \rho \neq 0\]

Siendo \(\rho\) el parámetro que representa la correlación entre residuos consecutivos, es decir, \(Correlación(e_t,~e_{t+1})\)

# ---------- Realizamos el análisis de varianza --------------

library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)

# ----- Prueba de Durbin - Watson -----

library(car)
durbinWatsonTest(modelo)
##  lag Autocorrelation D-W Statistic p-value
##    1      -0.3751937      2.713482    0.37
##  Alternative hypothesis: rho != 0

El \(p-value\) para la prueba \(Durbin - Watson\) resultó en \(p-value=0,342\), por lo que para un nivel de significancia \(\alpha = 0.05\) no existe evidencia estadística suficiente para rechazar la hipótesis nula \(H_0\) por lo que se concluye que los residuales no están autoccorelaciones.

Cuando se rechaza la hipótesis de igualdad de los cinco tratamientos, es natural preguntarse cuáles de ellos son diferentes entre sí. Para averiguarlo se utiliza alguna de las pruebas que ya se estudiaron “Comparaciones o pruebas de rango múltiples”:

Prueba Least Significant Difference para diseño de 2 factores.

1. Hipótesis

\[H_o: \mu_i = \mu_j \\ H_1 : u_i \neq u_j \\ \forall~i \neq j ,\\ i,j = 1, 2,...,ab \]

2. Cálculo de LSD

La diferencia mínima significativa \(LSD\) es igual a:

\[LSD = t_{\frac{\alpha}{2},~(ab(n-1)} \sqrt{{MS_{error}}\left[\frac{1}{n}+\frac{1}{n}\right]}\]

3. Comparación \(LSD\) con valor absoluto de diferencia de medias puntuales \(|\bar{y_{i.}}-\bar{y_{j.}}|\)

\[Si,~|\bar{y_{i.}}-\bar{y_{j.}}|>LSD ~ \rightarrow Rechazo~H_o\]

Ejemplo \(RStudio\) contraste LSD

# ---------- Realizamos el análisis de varianza --------------

library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)

# ----- Contraste LSD -----

library(agricolae)
pruebaLSD <- LSD.test(anova, c("datos$material","datos$temperatura"), group=TRUE, console=TRUE)
## 
## Study: anova ~ c("datos$material", "datos$temperatura")
## 
## LSD t Test for datos$vida 
## 
## Mean Square Error:  675.213 
## 
## datos$material:datos$temperatura,  means and individual ( 95 %) CI
## 
##       datos.vida      std r       se       LCL       UCL Min Max    Q25   Q50
## 1:125      57.50 26.85144 4 12.99243  30.84174  84.15826  20  82  48.50  64.0
## 1:15      134.75 45.35324 4 12.99243 108.09174 161.40826  74 180 116.00 142.5
## 1:70       57.25 23.59908 4 12.99243  30.59174  83.90826  34  80  38.50  57.5
## 2:125      49.50 19.26136 4 12.99243  22.84174  76.15826  25  70  40.00  51.5
## 2:15      155.75 25.61738 4 12.99243 129.09174 182.40826 126 188 144.00 154.5
## 2:70      119.75 12.65899 4 12.99243  93.09174 146.40826 106 136 112.75 118.5
## 3:125      85.50 19.27866 4 12.99243  58.84174 112.15826  60 104  76.50  89.0
## 3:15      144.00 25.97435 4 12.99243 117.34174 170.65826 110 168 131.00 149.0
## 3:70      145.75 22.54440 4 12.99243 119.09174 172.40826 120 174 134.25 144.5
##          Q75
## 1:125  73.00
## 1:15  161.25
## 1:70   76.25
## 2:125  61.00
## 2:15  166.25
## 2:70  125.50
## 3:125  98.00
## 3:15  162.00
## 3:70  156.00
## 
## Alpha: 0.05 ; DF Error: 27
## Critical Value of t: 2.051831 
## 
## least Significant Difference: 37.70048 
## 
## Treatments with the same letter are not significantly different.
## 
##       datos$vida groups
## 2:15      155.75      a
## 3:70      145.75      a
## 3:15      144.00      a
## 1:15      134.75      a
## 2:70      119.75     ab
## 3:125      85.50     bc
## 1:125      57.50      c
## 1:70       57.25      c
## 2:125      49.50      c

Tratamiento con igual letra (grupo) suponen tratamientos estadísticamente iguales mediante contraste LSD.