Diseño factorial - 2 factores.
En muchos experimentos interviene el estudio de los efectos de dos o más factores. En general, los diseños factoriales son los más eficientes para este tipo de experimentos. Por diseño factorial se entiende que en cada ensayo o réplica completa del experimento se investigan todas las combinaciones posibles de los niveles·de los factores. Por ejemplo, si el factor \(A\) tiene \(a\) niveles y el factor \(B\) tiene \(b\) niveles, cada réplica contiene todas las \(ab\) combinaciones de los tratamientos.
Los tipos más simples de diseños factoriales incluyen únicamente dos factores o conjuntos de tratamientos. Hay \(a~niveles\) del \(factor~A\) y \(b~niveles\) del \(factor~B\), los cuales se disponen en un diseño factorial; es decir, cada réplica del experimento contiene todas las \(ab~ combinaciones\) de los tratamientos. En general, hay \(n~réplicas\)
Situación inicial.
Un ingeniero está diseñando una batería que se usará en un dispositivo que se someterá a variaciones de temperatura extremas. El único parámetro del diseño que puede seleccionar en este punto es el material de la placa o ánodo de la batería, y tiene tres elecciones posibles. Cuando el dispositivo esté fabricado y se envíe al campo, el ingeniero no tendrá control sobre las temperaturas extremas en las que operará el dispositivo, pero sabe por experiencia que la temperatura probablemente afectará la vida efectiva de la batería. Sin embargo, la temperatura puede controlarse en el laboratorio donde se desarrolla el producto para fines de prueba. El ingeniero decide probar los tres materiales de la placa con tres niveles de temperatura 15°F, 70°F y 125°F, ya que estos niveles de temperatura son consistentes con el medio ambiente donde se usará finalmente el producto. Se prueban cuatro baterías con cada combinación del material de la placa y la temperatura, y las 36 pruebas se corren de manera aleatoria.
Material | Material 1 | 130 | 155 | 34 | 40 | 20 | 70 |
Material 1 | 74 | 180 | 80 | 75 | 82 | 58 | |
Material | Material 2 | 150 | 188 | 136 | 122 | 25 | 70 |
Material 2 | 159 | 126 | 106 | 115 | 58 | 45 | |
Material | Material 3 | 138 | 110 | 174 | 120 | 96 | 104 |
Material 3 | 168 | 160 | 150 | 139 | 82 | 60 |
Modelo de datos
Aunque el modelo estadístico se puede expresar de distintas maneras, suele utilizarse el modelo de los efectos:
\[y_{ijk}=\mu+\tau_i+\beta_j+ (\tau\beta)_{ij} + \epsilon_{ijk} \\ i=1,2,...,a \\ j=1,2,...,b \\k=1,2,...,n\]
Donde:
- \(\mu:~media~global\)
- \(\tau_i: efecto~i-ésimo~nivel~del~factor~A\)
- \(\beta_j: efecto~del~j-ésimo~nivel~del~factor~B\)
- \((\tau\beta)_{ij}: efecto~de~interacción~entre~\tau_i~y~\beta_j\)
- \(\epsilon_{ijk}:~error~aleatorio\)
Notación usada
Total observaciones \(i-ésimo\) nivel del \(Factor~A\) y su media
\[y_{i..}=\sum_{j=1}^b \sum_{k=1}^n y_{ijk}\]
\[\bar{y_{i..}}=\frac{y_{i..}}{bn}\]
Total observaciones \(j-ésimo\) nivel del \(Factor~B\) y su media
\[y_{.j.}=\sum_{i=1}^a \sum_{k=1}^n y_{ijk}\]
\[\bar{y_{.j.}}=\frac{y_{.j.}}{an}\]
Total observaciones celda \(ij-ésima\) y su media
\[y_{ij.}=\sum_{k=1}^n y_{ijk}\]
\[\bar{y_{ij.}}=\frac{y_{ij.}}{n}\]
Total global y su media
\[y_{...}=\sum_{i=1}^a \sum_{j=1}^b \sum_{k=1}^n y_{ijk}\]
\[\bar{y_{...}}=\frac{y_{...}}{abn}\]
Análisis de varianza ANOVA
1. Planteamiento de hipótesis
Las hipótesis para el presente diseño de experimentos son las siguientes:
a. Hipótesis para el \(Factor~A\)
\[H_0: \tau_1 =\tau_2=...=\tau_a = 0 \\ H_1: \tau_i \neq 0, ~para~al~menos~un~i\]
b. Hipótesis para el \(Factor~B\)
\[H_0: \beta_1 =\beta_2=...=\beta_b = 0 \\ H_1: \beta_j \neq 0, ~para~al~menos~un~j\]
b. Hipótesis para la interacción \(\tau \beta\)
\[H_0: (\tau\beta)_{ij} = 0~para~toda~i,j\\ H_1: (\tau\beta)_{ij} \neq 0, ~para~al~menos~un~i,~j \\ i=1,2,...,a \\ j=1,2,...,b\]
2. Cálculo de sumas de cuadrados \(SS\)
Los cálculos para las sumas de cuadrados son los siguientes:
2.1 Suma de cuadrados \(SS_A\) \(SS_B\) para los efectos principales
\[SS_A= \left[\frac{1}{bn} \sum_{i=1}^a y_{i..}^2\right] - \frac{y_{...}^2}{abn}\]
\[SS_B= \left[\frac{1}{an} \sum_{i=1}^a y_{.j.}^2\right] - \frac{y_{...}^2}{abn}\]
2.2 Suma de cuadrados \(SS_{AB}\) para la interacción
\[SS_{AB}= \left[ \frac{1}{n} \sum_{i=1}^a \sum_{j=1}^b y_{ij.}^2\right] - \frac{y_{...}^2}{abn} - SS_A - SS_B\]
2.3 Suma de cuadrados \(SS_{total}\) del total
\[SS_{total}= \left[ \sum_{i=1}^a \sum_{j=1}^b \sum_{k=1}^n y_{ijk}^2 \right] - \frac{y_{...}^2}{abn} \]
2.4 Suma de cuadrados \(SS_{error}\) del error
La suma de cuadrados del error \(SS_{error}\) se calculan de la siguiente manera:
\[SS_{total} = SS_{A} + SS_{B} + SS_{AB} + SS_{error}\]
Por lo tanto, la suma de cuadrados del error es:
\[SS_{error} = SS_{total} - SS_{A} - SS_{B} - SS_{AB}\]
3. Cálculo de grados de libertad \(GL\)
3.1 Grados de libertad \(GL_A\) \(GL_B\) para los efectos prinicipales:
\[GL_A=a-1\]
\[GL_B=b-1\]
3.2 Grados de libertad \(GL_{AB}\) para la interacción
\[GL_{AB}=(a-1)(b-1)\]
3.3 Grados de libertad \(GL_{error}\) para el error
\[GL_{error}=ab(n-1)\]
3.4 Grados de libertad \(GL_{total}\) para el total
\[GL_{total}=abn-1\]
4. Cálculos de cuadrados medios \(MS\)
Los cálculos para los cuadrados medios \(MS\) son los siguientes:
4.1 Cuadrados medios \(MS_A\) \(MS_B\) para los efectos principales
\[MS_A=\frac{SS_A}{GL_A}\]
\[MS_B=\frac{SS_B}{GL_B}\]
4.2 Cuadrados medios \(MS_{AB} para la interacción\)
\[MS_{AB}=\frac{SS_{AB}}{GL_{AB}}\]
4.3 Cudrados medios \(MS_{error}\) para el error
\[MS_{error}=\frac{SS_{error}}{GL_{error}}\]
4.4 Cudrados medios \(MS_{total}\) para el total
\[MS_{total}=\frac{SS_{total}}{GL_{total}}\]
5. Cálculo de estadísticos de prueba \(F_0\)
\[F_o~(A) = \frac{MS_{A}}{MS{error}}\]
\[F_o~(B) = \frac{MS_{B}}{MS{error}}\]
\[F_o~(AB) = \frac{MS_{AB}}{MS{error}}\]
\[Si~F_0 > F_{\alpha,GL_{numerador},GL_{error}{}} \rightarrow Rechazo~H_0\]
Estimación de parámetros del modelo
\[y_{ijk}=u+\tau_i+\beta_j+(\tau\beta)_{ij}+ \epsilon_{ijk} \\ i=1,2,...,a \\ j=1,2,...,b \\k=1,2,...,n\]
Donde:
- \(\mu:~media~global\)
- \(\tau_i: efecto~del~nivel~i-ésimo~del~factor~A\)
- \(\beta_j: efecto~del~nivel~j-ésimo~del~factor~B\)
- \((\tau\beta)_ij: efecto~de~la~interacción~entre~\tau_i~y~\beta_j\)
- \(\epsilon_{ijk}:~error~aleatorio\)
Estimación de la media global \(\mu\)
Si \(\hat{\mu}\) es un estimador para la media global \(\mu\) entonces:
\[\hat{\mu}=\bar{y_{...}}\]
Estimación para el efecto del \(i-ésimo\) nivel del factor A \(\tau_i\)
Si \(\hat{\tau_i}\) es un estimador para el efecto \(\tau\) del nivel \(i\) del Factor A entonces:
\[\hat{\tau_i}=\bar{y_{i...}}-\bar{y_{...}} \\ i= 1,2,...,a\]
Estimación para el efecto del \(j-ésimo\) nivel del factor B \(\beta_j\)
Si \(\hat{\beta_j}\) es un estimador para el efecto \(\beta\) del nivel \(j\) del Factor B entonces:
\[\hat{\beta_j}=\bar{y_{.j..}}-\bar{y_{...}} \\ j= 1,2,...,b\]
Estimación para el efecto de la interacción entre \(\tau_i y \beta_j\)
Si \(\hat{(\tau\beta)_{ij}}\) es un estimador para el efecto \((\tau\beta)_{ij}\) de la interacción entre Factor A y Factor B, entonces:
\[\hat{(\tau\beta)_{ij}}=\bar{y_{ij.}}-\bar{y_{i..}} - \bar{y_{.j.}} - \bar{y_{i..}} \\ i= 1,2,...,a \\ \\ j= 1,2,...,b \]
Residuales \(e_{ijk}\)
Se definen los residuales \(e_{ijk}\) como la diferencia entre la observación real \(y_{ijk}\) y la observación estimada por el modelo de datos \(\hat{y_{{ijk}}}\):
\[e_{ijk}= y_{ijk} - \hat{y_{ijk}}\]
La estimación de las observaciones \(y_{ijk}\) está dado por:
\[\hat{y_{{ijk}}}= \bar{y_{ij.}}\]
Por lo que los residuales \(e_{ijk}\)
\[e_{ijk} = y_{ijk} - \bar{y_{ij.}}\]
Ejemplo en \(RStudio\) - ANOVA
Tomaremos como ejemplo para resolver en RStudio la situación inicial en la que:
Un ingeniero está diseñando una batería que se usará en un dispositivo que se someterá a variaciones de temperatura extremas. El único parámetro del diseño que puede seleccionar en este punto es el material de la placa o ánodo de la batería, y tiene tres elecciones posibles. Cuando el dispositivo esté fabricado y se envíe al campo, el ingeniero no tendrá control sobre las temperaturas extremas en las que operará el dispositivo, pero sabe por experiencia que la temperatura probablemente afectará la vida efectiva de la batería. Sin embargo, la temperatura puede controlarse en el laboratorio donde se desarrolla el producto para fines de prueba. El ingeniero decide probar los tres materiales de la placa con tres niveles de temperatura 15°F, 70°F y 125°F, ya que estos niveles de temperatura son consistentes con el medio ambiente donde se usará finalmente el producto. Se prueban cuatro baterías con cada combinación del material de la placa y la temperatura, y las 36 pruebas se corren de manera aleatoria.
Material | Material 1 | 130 | 155 | 34 | 40 | 20 | 70 |
Material 1 | 74 | 180 | 80 | 75 | 82 | 58 | |
Material | Material 2 | 150 | 188 | 136 | 122 | 25 | 70 |
Material 2 | 159 | 126 | 106 | 115 | 58 | 45 | |
Material | Material 3 | 138 | 110 | 174 | 120 | 96 | 104 |
Material 3 | 168 | 160 | 150 | 139 | 82 | 60 |
Las hipótesis correspondientes al experimento anterior son las siguientes:
Para el efecto del \(Factor~A:~Material\)
\[H_0: \tau_1= \tau_2 = \tau_3 = 0 \\ H_1: \tau_i \neq 0 ~para~al~menos~un~i \\ i=1,2,3\]
Para el efecto del \(Factor~B:~Temperatura\)
\[H_0: \beta_1= \beta_2 = \beta_3 = 0 \\ H_1: \beta_j \neq 0 ~para~al~menos~un~j \\ j=1,2,3\]
Para el efecto de la interacción \(\tau \beta\)
\[H_0: (\tau\beta)_{ij} = 0~para~toda~i,j\\ H_1: (\tau\beta)_{ij} \neq 0, ~para~al~menos~un~i,~j \\ i=1,2,3 \\ j=1,2,3\]
# ----------------------- Análisis de varianza -----------------------
# --- Importamos datos del experimento a un dataframe llamado datos ---
library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
# ------------------ Establecemos los factores ------------------
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
# ------------- Planteamos el modelo de datos -------------
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
# ------------- Realizamos ANOVA -------------
anova <- aov(modelo)
summary(anova)
## Df Sum Sq Mean Sq F value Pr(>F)
## datos$material 2 10684 5342 7.911 0.00198 **
## datos$temperatura 2 39119 19559 28.968 1.91e-07 ***
## datos$material:datos$temperatura 4 9614 2403 3.560 0.01861 *
## Residuals 27 18231 675
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
# ------------ Estadísticos teóricos ------------
# ----------- Para el Factor A -------------
qf(0.05,2,27, lower.tail = FALSE)
## [1] 3.354131
# ----------- Para el Factor B -------------
qf(0.05,2,27,lower.tail = FALSE)
## [1] 3.354131
# ----------- Para el Interacción AB -------------
qf(0.05,4,27,lower.tail = FALSE)
## [1] 2.727765
Según los resultados del ANOVA tenemos las siguientes conclusiones.
Para el Factor A: material, El estadístico de prueba \(F_0(A)\) resultó en \(F_0(A)=7,911\) y el estadístico teórico para un nivel de significancia \(\alpha=0.05\) resultó en \(F_{0.05,~2,~27}=3,354131\). Como \(F_0(A) > F_{0.05,~2,27 }\) entonces rechazo \(H_0\) asociada al efecto del Factor A: material, y concluyo que al menos un tipo de material tiene efecto en el tiempo de duración de la batería.
Para el Factor B: temperatura, El estadístico de prueba \(F_0(B)\) resultó en \(F_0(B)= 28,968\) y el estadístico teórico para un nivel de significancia \(\alpha=0.05\) resultó en \(F_{0.05,~2,~27}=3,354131\). Como \(F_0(B) > F_{0.05,~2,27 }\) entonces rechazo \(H_0\) asociada al efecto del Factor B: temperatura, y concluyo que al menos una de las temperaturas tiene efecto en el tiempo de duración de la batería.
Para la interacción entre material y temperatura, El estadístico de prueba \(F_0(AB)\) resultó en \(F_0(AB)= 3,560\) y el estadístico teórico para un nivel de significancia \(\alpha=0.05\) resultó en \(F_{0.05,~4,~27}=2,727765\). Como \(F_0(AB) > F_{0.05,~4,27 }\) entonces rechazo \(H_0\) asociada al efecto de la interacción entre Factor A y Factor B: y concluyo que al existe interacción entre el material y la temperatura.
Ejemplo en \(RStudio\) - Verificación supuesto de normalidad.
Verificación gráfica
# ---------- Realizamos el análisis de varianza --------------
library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)
# -- Realizamos la gráfica cuantil - cuantil de los residuales del ANOVA --
library(car)
qqPlot (anova, main= "Gráfico Cuantil - Cuantil", id=FALSE)
A partir del gráfico cuantil-cuantil no deberíamos dudar de la normalidad de los datos, aunque el residual “más negativo” parece no ajustarse de la mejor forma a la recta.
Verificación analítica mediante Shapiro-Wilk.
Para la prueba tenemos las siguientes hipótesis:
\[H_0: e_{ijk} \sim N(0, \sigma^2) \\ H_1: e_{ijk} \nsim N(0, \sigma^2) \\ i=1,2,3 \\ j=1,2,3 \\ k=1,2,3,4 \]
# ---------- Realizamos el análisis de varianza --------------
library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)
# -- Realizamos la prueba de Normalidad Shapiro - Wilk --
shapiro.test(modelo$residuals)
##
## Shapiro-Wilk normality test
##
## data: modelo$residuals
## W = 0.97606, p-value = 0.6117
El estadístico de prueba \(W\) para la prueba de Shapiro - Wilk resultó ser igual a \(W = 0,97606\) se debe comparar con el estadístico teórico \(W_{1-\alpha}\) con nivel de significancia \(\alpha=0.05\) y \(36\) residuales. Este valor de tabla resulta ser \(W_{0,95}=0,986\). Cómo \(W<W{1-\alpha}\) no existe evidencia estadística suficiente para rechazar \(H_o\) por lo que se concluye que los residuales provienen de una distribución normal según el contraste de Shapiro - Wilk
Ejemplo en \(RStudio\) - Verificación de Homocedasticidad.
Verificación gráfica - homocedasticidad.
# ---------- Realizamos el análisis de varianza --------------
library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)
# ----- Graficamos valores predichos vs Residuales -----
predichos <- anova$fitted.values
residuales <- anova$residuals
plot(predichos,residuales, main="Predichos VS Residuales", xlab="Valores predichos", ylab="Residuales", ylim = c(-60,45), xlim=c(40,160))
En la verificación gráfica de la homocedasticidad no se observa patrón claro alguno, por lo que no existe evidencia gráfica para dudar de la homocedasticidad. Aunque, es importante revisar los residuales que poseen valores extremos.
Verificación analítica mediante Bartlett
La cantidad de tratamientos se puede calcular de la siguiente manera:
\[Cantidad~tratamientos=ab\]
Para el ejemplo \(a=3\) \(b=3\) por lo que la cantidad de tratamientos es igual a \(9\)
Para la prueba tenemos las siguientes hipótesis:
\[H_0: \sigma_1^2 = \sigma_2^2 = \sigma_3^2 = \sigma_4^2 = \sigma_5^2= \sigma_6^2 = \sigma_7^2 = \sigma_8^2 = \sigma_9^2 =\sigma^2 \\ H_1: \sigma_i^2 \neq \sigma_j^2~para~al~menos~un~par~(i,j)~con~i \neq j \\ i,j=1,2,3,4,5,6,7,8,9\]
# ---------- Realizamos el análisis de varianza --------------
library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)
# ----- Prueba de Bartlett -----
#datos1 <- datos %>% mutate(grupos = sort(rep(1:9, 4)))
bartlett.test(modelo$residuals~datos$tratamiento)
##
## Bartlett test of homogeneity of variances
##
## data: modelo$residuals by datos$tratamiento
## Bartlett's K-squared = 5.2354, df = 8, p-value = 0.7321
# ----- Estadístico teórico -----
qchisq(0.05,8,lower.tail = FALSE)
## [1] 15.50731
La prueba de Bartlett arrojó un estadístico de prueba \(X_0^2= 5.2354\), el estadístico teórico para nivel de significancia \(\alpha=0.05\) y \(ab-1\) grados de libertad de los tratamientos resulta en \(X_{0.05,~8}^2=15,50731\). Como \(X_0^2<X_{\alpha,~ab-1}\) entonces no existe evidencia suficiente para rechazar \(H_0\) por lo que las varianzas de los tratamientos son iguales.
Ejemplo en \(RStudio\) - Verificación de independencia.
Verificación gráfica - independencia.
Para la verificación gráfica de la independencia supondremos que los las observaciones se realizaron en el mismo orden mostrado en la tabla típica de la Situación inicial.
# ---------- Realizamos el análisis de varianza --------------
library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)
# ----- Grafico residuales como serie de tiempo -----
Orden_de_corrida <- c(1:36)
residuales <- anova$residuals
plot(Orden_de_corrida, residuales, xlab="Tiempo", ylab="Residuales", main="Orden de Corrida vs Residuales",xlim=c(0,36), ylim=c(-70,60))
En el gráfico de Orden de corrida VS Residuales no se observa un patrón claro en los datos, por lo que no existe evidencia para dudar sobre la independencia entre los residuales.
Verificación analítica independencia - Prueba Durbin - Watson
Para la realización de la prueba de independencia se tienen las siguientes hipótesis:
\[H_0: \rho = 0 \\ H_1: \rho \neq 0\]
Siendo \(\rho\) el parámetro que representa la correlación entre residuos consecutivos, es decir, \(Correlación(e_t,~e_{t+1})\)
# ---------- Realizamos el análisis de varianza --------------
library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)
# ----- Prueba de Durbin - Watson -----
library(car)
durbinWatsonTest(modelo)
## lag Autocorrelation D-W Statistic p-value
## 1 -0.3751937 2.713482 0.37
## Alternative hypothesis: rho != 0
El \(p-value\) para la prueba \(Durbin - Watson\) resultó en \(p-value=0,342\), por lo que para un nivel de significancia \(\alpha = 0.05\) no existe evidencia estadística suficiente para rechazar la hipótesis nula \(H_0\) por lo que se concluye que los residuales no están autoccorelaciones.
Cuando se rechaza la hipótesis de igualdad de los cinco tratamientos, es natural preguntarse cuáles de ellos son diferentes entre sí. Para averiguarlo se utiliza alguna de las pruebas que ya se estudiaron “Comparaciones o pruebas de rango múltiples”:
Prueba Least Significant Difference para diseño de 2 factores.
1. Hipótesis
\[H_o: \mu_i = \mu_j \\ H_1 : u_i \neq u_j \\ \forall~i \neq j ,\\ i,j = 1, 2,...,ab \]
2. Cálculo de LSD
La diferencia mínima significativa \(LSD\) es igual a:
\[LSD = t_{\frac{\alpha}{2},~(ab(n-1)} \sqrt{{MS_{error}}\left[\frac{1}{n}+\frac{1}{n}\right]}\]
3. Comparación \(LSD\) con valor absoluto de diferencia de medias puntuales \(|\bar{y_{i.}}-\bar{y_{j.}}|\)
\[Si,~|\bar{y_{i.}}-\bar{y_{j.}}|>LSD ~ \rightarrow Rechazo~H_o\]
Ejemplo \(RStudio\) contraste LSD
# ---------- Realizamos el análisis de varianza --------------
library(readxl)
datos <- read_excel("C:/Users/000322041/OneDrive - UPB/UPB/Asignaturas_2024__1/Diseno_de_Experimentos_11951/Clases/10_Introduccion_Diseno_factorial/datos.xlsx")
datos$material <- as.factor(datos$material)
datos$temperatura <- as.factor(datos$temperatura)
modelo <- lm(datos$vida~(datos$material+datos$temperatura+(datos$material*datos$temperatura)))
anova <- aov(modelo)
# ----- Contraste LSD -----
library(agricolae)
pruebaLSD <- LSD.test(anova, c("datos$material","datos$temperatura"), group=TRUE, console=TRUE)
##
## Study: anova ~ c("datos$material", "datos$temperatura")
##
## LSD t Test for datos$vida
##
## Mean Square Error: 675.213
##
## datos$material:datos$temperatura, means and individual ( 95 %) CI
##
## datos.vida std r se LCL UCL Min Max Q25 Q50
## 1:125 57.50 26.85144 4 12.99243 30.84174 84.15826 20 82 48.50 64.0
## 1:15 134.75 45.35324 4 12.99243 108.09174 161.40826 74 180 116.00 142.5
## 1:70 57.25 23.59908 4 12.99243 30.59174 83.90826 34 80 38.50 57.5
## 2:125 49.50 19.26136 4 12.99243 22.84174 76.15826 25 70 40.00 51.5
## 2:15 155.75 25.61738 4 12.99243 129.09174 182.40826 126 188 144.00 154.5
## 2:70 119.75 12.65899 4 12.99243 93.09174 146.40826 106 136 112.75 118.5
## 3:125 85.50 19.27866 4 12.99243 58.84174 112.15826 60 104 76.50 89.0
## 3:15 144.00 25.97435 4 12.99243 117.34174 170.65826 110 168 131.00 149.0
## 3:70 145.75 22.54440 4 12.99243 119.09174 172.40826 120 174 134.25 144.5
## Q75
## 1:125 73.00
## 1:15 161.25
## 1:70 76.25
## 2:125 61.00
## 2:15 166.25
## 2:70 125.50
## 3:125 98.00
## 3:15 162.00
## 3:70 156.00
##
## Alpha: 0.05 ; DF Error: 27
## Critical Value of t: 2.051831
##
## least Significant Difference: 37.70048
##
## Treatments with the same letter are not significantly different.
##
## datos$vida groups
## 2:15 155.75 a
## 3:70 145.75 a
## 3:15 144.00 a
## 1:15 134.75 a
## 2:70 119.75 ab
## 3:125 85.50 bc
## 1:125 57.50 c
## 1:70 57.25 c
## 2:125 49.50 c
Tratamiento con igual letra (grupo) suponen tratamientos estadísticamente iguales mediante contraste LSD.