Cuando se habla de diseño de experimentos estadísticos se debe tener claridad acerca de algunos conceptos que permitirón tener éxito en la planeación y ejecución de diseños probabilísticos que logren ser extrapolables y tengan rigor estadístico.
Algunos concpetos básicos del diseño de experimentos
Si se quiere desarrollar un experimento con la mayor eficiencia posible debe seguirse un enfoque científico en su planeación, El diseño estadístico de experimentos se refiere al proceso para planear el experimento de tal forma que los datos recolectados puedan analizarse con métodos estadísticos que lleven a conclusiones válidas y objetivas.
Los tres principios básicos del diseño experimental son:
Ha habido cuatro eras en el desarrollo moderno del diseño experimental estadístico:
Software | Cobro | Gráficas | Actualizado | Interface |
---|---|---|---|---|
SAS | Comercial | Baja | No | Si |
SPSS | Comercial | Baja | No | Si |
MINITAB | Comercial | Baja | No | Si |
DESIGN EXPERT | Comercial | Alta | No | Si |
R | Gratuito | Alta | Si | No |
La inferencia estadística se divide en dos grandes áreas:
Para el caso particular del diseño experimental el interés se centra en el contraste o prueba de hipótesis para:
Una prueba de hipótesis examina dos hipótesis opuestas sobre una población: (i) la hipótesis nula o el enunciado que se probar y (ii) la hipótesis alternativa es el complemento de la anterior. Pasos para la construcción de una prueba de hipótesis:
media.poblacional <- round(rnorm(1,16,4),0)
media.poblacional
## [1] 11
U=rnorm(200,media.poblacional,rnorm(1,2,1))
s=sample(U, 20, replace = FALSE, prob = NULL)
A partir de lo anterior se realiza una prueba de hipótesis sobre la media poblacional
Código en R: El siguiente código realiza la prueba de hipótesis planteada anteriormente
prueba.t <- t.test(s,mu=media.poblacional)
prueba.t
##
## One Sample t-test
##
## data: s
## t = 0.85148, df = 19, p-value = 0.4051
## alternative hypothesis: true mean is not equal to 11
## 95 percent confidence interval:
## 10.57092 12.01762
## sample estimates:
## mean of x
## 11.29427
prueba.t$statistic
## t
## 0.8514835
prueba.t$parameter
## df
## 19
prueba.t$p.value
## [1] 0.4051053
prueba.t$conf.int
## [1] 10.57092 12.01762
## attr(,"conf.level")
## [1] 0.95
prueba.t$estimate
## mean of x
## 11.29427
prueba.t$null.value
## mean
## 11
prueba.t$alternative
## [1] "two.sided"
prueba.t$method
## [1] "One Sample t-test"
prueba.t$data.name
## [1] "s"
\[ \begin{align} {\nu}=\frac{\left(\frac{{s}_{x}^{2}}{{n}_{x}}+\frac{{s}_{y}^{2}}{{n}_{y}}\right)^{2}}{\left(\frac{{s}_{x}^{2}}{{n}_{x}}\right)^{2}+\left(\frac{{s}_{y}^{2}}{{n}_{y}}\right)^{2}}-2\notag \end{align} \]
Supongase que en un diseño experimental de \({a}\) tratamientos, entonces se aplican los principios descritos anteriormente y se decide seleccionar aleatoriamente \({n}_{i}\) individuos para cada tratamiento, en este caso, luego de la recolección de la informaci?n se tiene un vector de \({N}=\sum_{i}^{a}{n}_{i}\) valores que representan la variable respuesta del experimento; se demostrará inicialmente como \({Y}_{0}=\left({y}_{1},{y}_{2},\ldots,{y}_{n}\right)^{t}\), este vector puede asociarse a los \(n\) tratamientos del experimento a trav?s de un modelo lineal \(\mathbf{Y}=\mathbf{X}\boldsymbol{\beta}+\boldsymbol{\varepsilon}\) donde
\[ \begin{align} \begin{bmatrix} {y}_{1,1}\\ {y}_{1,2}\\ \vdots \\ {y}_{1,{n}_{1}}\\ {y}_{2,1}\\ {y}_{2,2}\\ \vdots\\ {y}_{2,{n}_{2}}\\ \vdots\\ {y}_{a,1}\\ {y}_{a,2}\\ \vdots \\ {y}_{a,{n}_{a}} \end{bmatrix}&=\begin{bmatrix} {1}&{1}&{0}&\cdots&{0}\\ {1}&{1}&{0}&\cdots&{0}\\ \vdots&\vdots&\vdots&\ddots&\vdots\\ {1}&{1}&{0}&\cdots&{0}\\ {1}&{0}&{1}&\cdots&{0}\\ {1}&{0}&{1}&\cdots&{0}\\ \vdots&\vdots&\vdots&\ddots&\vdots\\ {1}&{0}&{1}&\cdots&{0}\\ \vdots&\vdots&\vdots&\ddots&\vdots\\ {1}&{0}&{0}&\cdots&{1}\\ {1}&{0}&{0}&\cdots&{1}\\ \vdots&\vdots&\vdots&\ddots&\vdots\\ {1}&{0}&{0}&\cdots&{1} \end{bmatrix}\begin{bmatrix} {\beta}_{0}\\ {\beta}_{1}\\ {\beta}_{2}\\ \vdots \\ {\beta}_{a} \end{bmatrix}+\begin{bmatrix} {\varepsilon}_{1,1}\\ {\varepsilon}_{1,2}\\ \vdots \\ {\varepsilon}_{1,{n}_{1}}\\ {\varepsilon}_{2,1}\\ {\varepsilon}_{2,2}\\ \vdots\\ {\varepsilon}_{2,{n}_{2}}\\ \vdots\\ {\varepsilon}_{a,1}\\ {\varepsilon}_{a,2}\\ \vdots \\ {\varepsilon}_{a,{n}_{1}} \end{bmatrix}\notag \end{align} \]
De donde, resolviendo el producto y la suma matricial, se obtiene lo siguiente:
\[ \begin{align} \begin{bmatrix} {y}_{1,1}\\ {y}_{1,2}\\ \vdots \\ {y}_{1,{n}_{1}}\\ {y}_{2,1}\\ {y}_{2,2}\\ \vdots\\ {y}_{2,{n}_{2}}\\ \vdots\\ {y}_{a,1}\\ {y}_{a,2}\\ \vdots \\ {y}_{a,{n}_{a}} \end{bmatrix}&=\begin{bmatrix} {\beta}_{0}+{\beta}_{1}+{\varepsilon}_{1,1}\\ {\beta}_{0}+{\beta}_{1}+{\varepsilon}_{1,2}\\ \vdots\\ {\beta}_{0}+{\beta}_{1}+{\varepsilon}_{1,{n}_{1}}\\ {\beta}_{0}+{\beta}_{2}+{\varepsilon}_{2,1}\\ {\beta}_{0}+{\beta}_{2}+{\varepsilon}_{2,2}\\ \vdots\\ {\beta}_{0}+{\beta}_{2}+{\varepsilon}_{2,{n}_{2}}\\ \vdots\\ {\beta}_{0}+{\beta}_{a}+{\varepsilon}_{a,1}\\ {\beta}_{0}+{\beta}_{a}+{\varepsilon}_{a,2}\\ \vdots\\ {\beta}_{0}+{\beta}_{a}+{\varepsilon}_{a,{n}_{a}} \end{bmatrix}\notag \end{align} \]
Y cambiando a la notación a la usada en dise?o experimental, con \({\beta}_{0}={\mu}\) y \({\beta}_{i}+{\varepsilon}_{i,j}={\tau}_{i,j}\), finalmente se tiene:
\[ \begin{align} \begin{bmatrix} {y}_{1,1}\\ {y}_{1,2}\\ \vdots \\ {y}_{1,{n}_{1}}\\ {y}_{2,1}\\ {y}_{2,2}\\ \vdots\\ {y}_{2,{n}_{2}}\\ \vdots\\ {y}_{a,1}\\ {y}_{a,2}\\ \vdots \\ {y}_{a,{n}_{a}} \end{bmatrix}&=\begin{bmatrix} {\mu}+{\tau}_{1}+{\varepsilon}_{1,1}\\ {\mu}+{\tau}_{1}+{\varepsilon}_{1,2}\\ \vdots\\ {\mu}+{\tau}_{1}+{\varepsilon}_{1,{n}_{1}}\\ {\mu}+{\tau}_{2}+{\varepsilon}_{2,1}\\ {\mu}+{\tau}_{2}+{\varepsilon}_{2,2}\\ \vdots\\ {\mu}+{\tau}_{2}+{\varepsilon}_{2,{n}_{2}}\\ \vdots\\ {\mu}+{\tau}_{a}+{\varepsilon}_{a,1}\\ {\mu}+{\tau}_{a}+{\varepsilon}_{a,2}\\ \vdots\\ {\mu}+{\tau}_{a}+{\varepsilon}_{a,{n}_{a}} \end{bmatrix}\notag \end{align} \]
En resúmen, el modelo en una sola ecuación:
\[ \begin{align} {y}_{i,j}&={\mu}+{\tau}_{i}+{\varepsilon}_{i,j}\ con\ i=1,2,\ldots,a, j=1,2,\ldots,{n}_{i}\notag \end{align} \]
En donde:
A partir del modelo escrito en forma matricial, las ecuaciones normales \(\left(\mathbf{X}^{t}\mathbf{X}\right)\beta=\mathbf{X}^{t}\mathbf{Y}\), toman la forma
\[ \begin{align} \begin{bmatrix} {N} & {n}_{1} & {n}_{2} & \cdots & {n}_{a}\\ {n}_{1} & {n}_{1} & {0} & \cdots & {0}\\ {n}_{2} & {0} & {n}_{2} & \cdots & {0}\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ {n}_{a} & {0} & 0 & \cdots & {n}_{a} \end{bmatrix}\begin{bmatrix} {\mu}\\ {\tau}_{1}\\ {\tau}_{2}\\ \vdots\\ {\tau}_{a} \end{bmatrix}&=\begin{bmatrix} {y}_{\cdot,\cdot}\\ {y}_{1,\cdot}\\ {y}_{2,\cdot}\\ \vdots\\ {y}_{a,\cdot} \end{bmatrix}\notag \end{align} \]
Es decir
\[ \begin{align} {N}{\mu}+\sum_{i=1}^{a}{n}_{i}{\tau}_{i}&={y}_{\cdot,\cdot}\notag\\ {n}_{i}{\mu}+{n}_{i}{\tau}_{i}&={y}_{i,\cdot}\ i=1,\ldots,a\notag \end{align} \]
Si se suma la última ecuación sobre todos los a tratamientos se obtiene la primera ecuación, por lo que se tiene un sistema de \(a\) ecuaciones con \(a+1\) parámetros desconocidos; y por tanto infinitas soluciones. Para solucionar lo anterior, es común imponer la restricción \(\sum_{i=1}^{a}{n}_{i}{\tau}_{i}=0\) y con esto obtener soluciones al sistema como las siguientes:
\[ \begin{align} \hat{\mu}&=\frac{{y}_{\cdot,\cdot}}{N}\notag\\ &=\bar{y}_{\cdot,\cdot}\notag\\ \hat{\tau}_{i}&=\frac{{y}_{i,\cdot}-{n}_{i}\hat{\mu}}{{n}_{i}}\notag\\ &=\bar{y}_{i,\cdot}-\bar{y}_{\cdot,\cdot}\notag \end{align} \]
El problema de la estimación de parámetros también puede ser abordado desde el punto de vista del álgebra lineal, veamos:
\[ \begin{align} \mathbf{b}&=\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\mathbf{X}^{t}\mathbf{Y}\notag\\ &=\hat{\boldsymbol{\beta}}\notag \end{align} \]
\[ \begin{align} \left(\mathbf{X}^{t}\mathbf{X}\right)^{-}&=\begin{cases} \begin{bmatrix} 0 & 0 & 0 & \cdots & 0\\ 0 & \frac{1}{{n}_{1}} & 0 & \cdots & 0\\ 0 & 0 & \frac{1}{{n}_{2}} & \cdots & 0\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ 0 & 0 & 0 & \cdots & \frac{1}{{n}_{a}}\\ \end{bmatrix}& \text{con solución: }\hat{\mu}=0\text{ y }\hat{\tau}_{i}=\bar{y}_{i,\cdot}\\\\ \begin{bmatrix} +\frac{1}{{N}} & 0 & 0 & \cdots & 0\\ -\frac{1}{{N}} & \frac{1}{{n}_{1}} & 0 & \cdots & 0\\ -\frac{1}{{N}} & 0 & \frac{1}{{n}_{2}} & \cdots & 0\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ -\frac{1}{{N}} & 0 & 0 & \cdots & \frac{1}{{n}_{a}}\\ \end{bmatrix}& \text{con solución: }\hat{\mu}=\bar{y}_{\cdot,\cdot}\text{ y }\hat{\tau}_{i}=\bar{y}_{i,\cdot}-\bar{y}_{\cdot,\cdot}\\\\ \begin{bmatrix} 0 & +\frac{1}{{n}_{1}} & 0 & \cdots & 0\\ 0 & 0 & 0 & \cdots & 0\\ 0 & -\frac{1}{{n}_{1}} & \frac{1}{{n}_{2}} & \cdots & 0\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ 0 & -\frac{1}{{n}_{1}} & 0 & \cdots & \frac{1}{{n}_{a}}\\ \end{bmatrix}& \text{con solución: }\hat{\mu}=\bar{y}_{1,\cdot}\text{ y }\hat{\tau}_{i}=\bar{y}_{i,\cdot}-\bar{y}_{1,\cdot} \end{cases}\notag \end{align} \]
Finalmente, las estimaciones para la variable respuesta y los residuales son dadas por:
\[ \begin{align} \hat{y}_{i,j}&=\hat{\mu}+\hat{\tau}_{i}\notag \end{align} \]
Luego se tiene que las estimaciones para la variable respuesta \(\hat{y}_{i,j}\) y los residuales del modelo \(\hat{r}_{ij}\) quedan dados por:
\[ \begin{align} \hat{y}_{i,j}&=\bar{y}_{\cdot,\cdot}+\left(\bar{y}_{i\cdot}-\bar{y}_{\cdot,\cdot}\right)\notag\\ &=\bar{y}_{i\cdot}\notag\\ \hat{r}_{ij}&={y}_{i,j}-\hat{y}_{i,j}\notag\\ &={y}_{i,j}-\bar{y}_{i\cdot}\notag \end{align} \]
Una combinación lineal \({\boldsymbol{\lambda}}^{t}\boldsymbol{\beta}\) es estimable si es identicamente igual a alguna función lineal del valor esperado del vector de observaciones \(\mathbf{Y}\) o, lo que es lo mismo, si existe un vector \(\mathbf{a}\), tal que:
\[ \begin{align} E\left({\mathbf{a}}^{t}\mathbf{Y}\right)&={\mathbf{a}}^{t}E\left(\mathbf{Y}\right)\notag\\ &={\boldsymbol{\lambda}}^{t}\boldsymbol{\beta}\notag \end{align} \]
Y entonces \(\mathbf{a}^{t}\mathbf{Y}\) es un estimador insesgado para \({\boldsymbol{\lambda}}^{t}\boldsymbol{\beta}\), debe ser claro que al hacer uso de una inversa generalizada la \(E\left[\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\mathbf{X}^{t}\mathbf{Y}\right]\) no es el parámetro \(\boldsymbol{\beta}\); la deducción de la condición de estimabilidad es la siguiente:
\[ \begin{align} E\left({\mathbf{a}}^{t}\mathbf{Y}\right)&=E\left[{\mathbf{a}}^{t}\left(\mathbf{X}\boldsymbol{\beta}+\boldsymbol{\varepsilon}\right)\right]\notag\\ &={\mathbf{a}}^{t}E\left(\mathbf{X}\boldsymbol{\beta}+\boldsymbol{\varepsilon}\right)\notag\\ &={\mathbf{a}}^{t}E\left(\mathbf{X}\boldsymbol{\beta}\right)+{\mathbf{a}}^{t}E\left(\boldsymbol{\varepsilon}\right)\notag\\ &={\mathbf{a}}^{t}\mathbf{X}\boldsymbol{\beta}\notag \end{align} \]
De donde \({\mathbf{a}}^{t}\mathbf{X}=\boldsymbol{\lambda}^{t}\) o \({\mathbf{X}}^{t}\mathbf{a}=\boldsymbol{\lambda}\), así pues, \(\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\mathbf{X}^{t}\mathbf{X}=\boldsymbol{\lambda}^{t}\) o \(\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}=\boldsymbol{\lambda}\) luego se tiene que \(\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}=\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\boldsymbol{\lambda}\) y entonces \(\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}=\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\boldsymbol{\lambda}\); en resúmen el sistema \({\mathbf{X}}^{t}\mathbf{a}=\boldsymbol{\lambda}\) tendrá solución solo si \(\boldsymbol{\lambda}=\left[{\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}}\right]\boldsymbol{\lambda}\)
\[ \begin{align} \mathbf{X}^{t}\mathbf{X}&=\begin{bmatrix} {N} & {n}_{1} & {n}_{2} & \cdots & {n}_{a}\\ {n}_{1} & {n}_{1} & {0} & \cdots & {0}\\ {n}_{2} & {0} & {n}_{2} & \cdots & {0}\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ {n}_{a} & {0} & 0 & \cdots & {n}_{a} \end{bmatrix}\notag \end{align} \]
Una inversa generalizada puede hallarse particionanado \(\mathbf{X}^{t}\mathbf{X}\) en cuatro bloques: con \({\mathbf{X}^{t}\mathbf{X}}_{1,1}=0\), un escalar, \({\mathbf{X}^{t}\mathbf{X}}_{1,2}=\mathbf{0}_{\left(1,n-1\right)}\) vector fila, \({\mathbf{X}^{t}\mathbf{X}}_{2,1}=\mathbf{0}_{\left(n-1,1\right)}\) un vector columna y calculando la inversa de la submatriz retante \({\mathbf{X}^{t}\mathbf{X}}_{2,2}\), as?:
\[ \begin{align} \mathbf{X}^{t}\mathbf{X}&=\begin{bmatrix} {0} & \mathbf{0}_{\left(1,n-1\right)}\\ \mathbf{0}_{\left(n-1,1\right)} & {\mathbf{X}^{t}\mathbf{X}_{2,2}}^{-1} \end{bmatrix}\notag \end{align} \]
\[ \begin{align} \mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}&=\begin{bmatrix} {N} & {n}_{1} & {n}_{2} & \cdots & {n}_{a}\\ {n}_{1} & {n}_{1} & {0} & \cdots & {0}\\ {n}_{2} & {0} & {n}_{2} & \cdots & {0}\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ {n}_{a} & {0} & 0 & \cdots & {n}_{a} \end{bmatrix}\begin{bmatrix} {0} & {0} & {0} & \cdots & {0}\\ {0} & \frac{1}{{n}_{1}} & {0} & \cdots & {0}\\ {0} & {0} & \frac{1}{{n}_{2}} & \cdots & {0}\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ {0} & {0} & 0 & \cdots & \frac{1}{{n}_{a}} \end{bmatrix}\notag\\ &=\begin{bmatrix} {1} & {1} & {1} & \cdots & {1}\\ {0} & {1} & {0} & \cdots & {0}\\ {0} & {0} & {1} & \cdots & {0}\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ {0} & {0} & 0 & \cdots & {1} \end{bmatrix}_{\left({a}\times{a}\right)}\notag \end{align} \]
Probando con \(\boldsymbol{\lambda}^{t}=\left(0,-1,1,0,\ldots,0\right)_{\left({a}\times{1}\right)}\), se tiene que:
\[ \begin{align} \mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\boldsymbol{\lambda}&=\begin{bmatrix} {0} & {1} & {1} & \cdots & {1}\\ {0} & {1} & {0} & \cdots & {0}\\ {0} & {0} & {1} & \cdots & {0}\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ {0} & {0} & {0} & \cdots & {1} \end{bmatrix}\begin{bmatrix} {0}\\ {1}\\ {-1}\\ \vdots\\ {0} \end{bmatrix}\notag\\ &=\begin{bmatrix} {0}\\ {1}\\ {-1}\\ \vdots\\ {0} \end{bmatrix}\notag\\ &=\boldsymbol{\lambda}\notag \end{align} \]
Luego, este producto cumple con la condici?n de estimabilidad por lo que \({\tau}_{1}-{\tau}_{2}\) es estimable
Probando con \(\boldsymbol{\lambda}^{t}=\left(0,1,1,-1,0,\ldots,0\right)_{\left({a}\times{1}\right)}\), se tiene que:
\[ \begin{align} \mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\boldsymbol{\lambda}&=\begin{bmatrix} {0} & {1} & {1} & {1} & \cdots & {1}\\ {0} & {1} & {0} & {0} & \cdots & {0}\\ {0} & {0} & {1} & {0} & \cdots & {0}\\ {0} & {0} & {0} & {1} & \cdots & {0}\\ \vdots & \vdots & \vdots & \vdots & \ddots & \vdots\\ {0} & {0} & {0} & {0} & \cdots & {1} \end{bmatrix}\begin{bmatrix} {0}\\ {1}\\ {1}\\ {-1}\\ \vdots\\ {0} \end{bmatrix}\notag\\ &=\begin{bmatrix} {1}\\ {1}\\ {1}\\ {-1}\\ \vdots\\ {0} \end{bmatrix}\notag\\ &\neq\boldsymbol{\lambda}\notag \end{align} \]
Luego, este producto no cumple con la condición de estimabilidad por lo que \({\tau}_{1}+{\tau}_{2}={\tau}_{3}\) no es estimable; y por lo tanto esta hipótesis no puede ser probada, aunque puede ser modificada por una que si pueda probarse, como por ejemplo: probando esta vez con \(\boldsymbol{\lambda}^{t}=\left(0,\frac{1}{2},\frac{1}{2},-1,0,\ldots,0\right)_{\left({a}\times{1}\right)}\)
\[ \begin{align} \mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\boldsymbol{\lambda}&=\begin{bmatrix} {0} & {1} & {1} & {1} & \cdots & {1}\\ {0} & {1} & {0} & {0} & \cdots & {0}\\ {0} & {0} & {1} & {0} & \cdots & {0}\\ {0} & {0} & {0} & {1} & \cdots & {0}\\ \vdots & \vdots & \vdots & \vdots & \ddots & \vdots\\ {0} & {0} & {0} & {0} & \cdots & {1} \end{bmatrix}\begin{bmatrix} {0}\\ {\frac{1}{2}}\\ {\frac{1}{2}}\\ {-1}\\ \vdots\\ {0} \end{bmatrix}\notag\\ &=\begin{bmatrix} {0}\\ {\frac{1}{2}}\\ {\frac{1}{2}}\\ {-1}\\ \vdots\\ {0} \end{bmatrix}\notag\\ &=\boldsymbol{\lambda}\notag \end{align} \]
Y finalmente, este producto cumple con la condición de estimabilidad por lo que \(\frac{{\tau}_{1}+{\tau}_{2}}{2}={\tau}_{3}\) es una hipótesis estimable; la cual se lee como que el efecto del tratamiento dos y tres, en promedio tienen el mismo efecto que el tratamiento tres.
\[ \begin{align} \mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\boldsymbol{\lambda}&=\boldsymbol{\lambda}\notag\\ \begin{bmatrix} {0} & {1} & {1} & {1} & \cdots & {1}\\ {0} & {1} & {0} & {0} & \cdots & {0}\\ {0} & {0} & {1} & {0} & \cdots & {0}\\ {0} & {0} & {0} & {1} & \cdots & {0}\\ \vdots & \vdots & \vdots & \vdots & \ddots & \vdots\\ {0} & {0} & {0} & {0} & \cdots & {1} \end{bmatrix}\begin{bmatrix} {{\lambda}_{0}}\\ {{\lambda}_{1}}\\ {{\lambda}_{2}}\\ {{\lambda}_{3}}\\ \vdots\\ {{\lambda}_{a}} \end{bmatrix}&=\begin{bmatrix} {{\lambda}_{0}}\\ {{\lambda}_{1}}\\ {{\lambda}_{2}}\\ {{\lambda}_{3}}\\ \vdots\\ {{\lambda}_{a}} \end{bmatrix}\notag\\ \begin{bmatrix} {\sum\limits_{i=1}^{a}{\lambda}_{i}}\\ {{\lambda}_{1}}\\ {{\lambda}_{2}}\\ {{\lambda}_{3}}\\ \vdots\\ {{\lambda}_{a}} \end{bmatrix}&=\begin{bmatrix} {{\lambda}_{0}}\\ {{\lambda}_{1}}\\ {{\lambda}_{2}}\\ {{\lambda}_{3}}\\ \vdots\\ {{\lambda}_{a}} \end{bmatrix}\notag \end{align} \]
Con lo que finalmente se llega a la conclusión de que la combinación lineal \({\boldsymbol{\lambda}}^{t}\boldsymbol{\beta}\) ser? estimable si \({\lambda}_{0}=\sum\limits_{i=1}^{a}{\lambda}_{i}\)
Para el modelo \(y_{i,j}={\mu}+{\tau}_{i}+{\varepsilon}_{i,j}\), desde el punto de vista de los mínimos cuadrados para estimar \({\boldsymbol{\beta}}^{t}=\left(\mu,{\tau}_{1},{\tau}_{2},\ldots,{\tau}_{a}\right)\), se tiene que:
\[ \begin{align} S&=\sum\limits_{i=1}^{a}{\sum\limits_{j=1}^{{n}_{i}}{{\varepsilon}_{i,j}^{2}}}\notag\\ &=\sum\limits_{i=1}^{a}{\sum\limits_{j=1}^{{n}_{i}}{\left({y_{i,j}-{\mu}-{\tau}_{i}}\right)^{2}}}\notag \end{align} \]
Ahora bien, derivando con respecto a cada uno de los componentes de \(\boldsymbol{\beta}\) para encontrar los estimadores por máxima verosimilitud, se tiene que:
\[ \begin{align} \frac{\partial{S}}{\partial{\mu}}&={-2}\sum\limits_{i=1}^{a}{\sum\limits_{j=1}^{{n}_{i}}{\left({y_{i,j}-{\mu}-{\tau}_{i}}\right)}}\notag \end{align} \]
\[ \begin{align} \frac{\partial{S}}{\partial{{\tau}_{i}}}&={-2}{\sum\limits_{j=1}^{{n}_{i}}{\left({y_{i,j}-{\mu}-{\tau}_{i}}\right)}}\notag \end{align} \]
Igualando a cero, se llega a que:
\[ \begin{align} \sum\limits_{i=1}^{a}{\sum\limits_{j=1}^{{n}_{i}}{\left({y_{i,j}-\hat{\mu}-{\tau}_{i}}\right)}}&={0}\notag \end{align} \]
\[ \begin{align} \sum\limits_{j=1}^{{n}_{i}}{\left({y_{i,j}-{\mu}-\hat{\tau}_{i}}\right)}&={0}\notag \end{align} \]
Tratamiento | Individuo \(1\) | Individuo \(2\) | \(\cdots\) | Individuo \(n\) | Totales |
---|---|---|---|---|---|
\(1\) | \(\left(y_{1,1}-\mu-\tau_1\right)^{2}\) | \(\left(y_{1,2}-\mu-\tau_1\right)^{2}\) | \(\cdots\) | \(\left(y_{1,n}-\mu-\tau_1\right)^{2}\) | \(\sum\limits_{j=1}^{n}\left(y_{1,j}-\mu-\tau_1\right)^{2}\) |
\(2\) | \(\left(y_{2,1}-\mu-\tau_2\right)^{2}\) | \(\left(y_{2,2}-\mu-\tau_2\right)^{2}\) | \(\cdots\) | \(\left(y_{2,n}-\mu-\tau_2\right)^{2}\) | \(\sum\limits_{j=1}^{n}\left(y_{2,j}-\mu-\tau_2\right)^{2}\) |
\(\vdots\) | \(\vdots\) | \(\vdots\) | \(\ddots\) | \(\vdots\) | \(\vdots\) |
\(a\) | \(\left(y_{a,1}-\mu-\tau_a\right)^{2}\) | \(\left(y_{a,2}-\mu-\tau_a\right)^{2}\) | \(\cdots\) | \(\left(y_{a,n}-\mu-\tau_a\right)^{2}\) | \(\sum\limits_{j=1}^{n}\left(y_{a,j}-\mu-\tau_a\right)^{2}\) |
Totales | \(\sum\limits_{i=1}^{a}\left(y_{i,1}-\mu-\tau_i\right)^{2}\) | \(\sum\limits_{i=1}^{a}\left(y_{i,2}-\mu-\tau_i\right)^{2}\) | \(\cdots\) | \(\sum\limits_{i=1}^{a}\left(y_{i,n}-\mu-\tau_i\right)^{2}\) | \(\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}\left(y_{i,j}-\mu-\tau_i\right)^{2}\) |
Debe ser claro que se tienen \(a+1\) parámetros a estimar en las \(a\) ecuaciones; por lo que se hace necesario imponer una restricción.
\[ \begin{align} \sum\limits_{i=1}^{a}{n}{\tau}_{i}&=0\notag \end{align} \]
\[ \begin{align} \sum\limits_{i=1}^{a}{\sum\limits_{j=1}^{{n}_{i}}{{y_{i,j}}}}&={{N}\hat{\mu}}\notag\\ \frac{\sum\limits_{i=1}^{a}{\sum\limits_{j=1}^{{n}_{i}}{{y_{i,j}}}}}{{N}}&={\hat{\mu}}\notag\\ \bar{y}_{\cdot,\cdot}&=\notag \end{align} \]
\[ \begin{align} \sum\limits_{j=1}^{{n}_{i}}{y_{i,j}}-{{n}_{i}}\hat{\mu}&={{n}_{i}}{\hat{\tau}_{i}}\notag\\ \frac{\sum\limits_{j=1}^{{n}_{i}}{y_{i,j}}}{{n}_{i}}-\hat{\mu}&={\hat{\tau}_{i}}\notag\\ \bar{y}_{i,\cdot}-\bar{y}_{\cdot,\cdot}&=\notag \end{align} \]
\[ \begin{align} \hat{y}_{i,j}&=\bar{y}_{\cdot,\cdot}+\left(\bar{y}_{i,\cdot}-\bar{y}_{\cdot,\cdot}\right)\notag\\ &=\bar{y}_{i,\cdot}\notag \end{align} \]
\[ \begin{align} \hat{r}_{i,j}&={y}_{i,j}-\bar{y}_{i,\cdot}\notag \end{align} \]
Las estimaciones de los parámetros reportan información acerca de:
Sin embargo, estas hipótesis deben ser contrastadas mediante pruebas estadísticas. Las hipótesis para estas pruebas son principalmente:
Suponga que se tienen \(a\) tratamientos o niveles de un solo factor; los cuales quieren compararse. La respuesta observada en cada uno de los niveles es una variable aleatoria \({y}_{i,j}\), entonces los datos, típicos de un experimento con un solo factor, pueden disponerse en una tabla de la siguiente forma:
Tratamiento | Observaciones | Totales | Promedios | |||
---|---|---|---|---|---|---|
\(1\) | \(y_{1,1}\) | \(y_{1,2}\) | \(\cdots\) | \(y_{1,n}\) | \(y_{1,\cdot}=\sum\limits_{j=1}^{n}y_{1,j}\) | \(\overline{y}_{1,\cdot}=\frac{y_{1,\cdot}}{n}\) |
\(2\) | \(y_{2,1}\) | \(y_{2,2}\) | \(\cdots\) | \(y_{2,n}\) | \(y_{2,\cdot}=\sum\limits_{j=1}^{n}y_{2,j}\) | \(\overline{y}_{2,\cdot}=\frac{y_{2,\cdot}}{n}\) |
\(\vdots\) | \(\vdots\) | \(\vdots\) | \(\ddots\) | \(\vdots\) | \(\vdots\) | \(\vdots\) |
\(a\) | \(y_{a,1}\) | \(y_{a,2}\) | \(\cdots\) | \(y_{a,n}\) | \(y_{a,\cdot}=\sum\limits_{j=1}^{n}y_{a,j}\) | \(\overline{y}_{a,\cdot}=\frac{y_{a,\cdot}}{n}\) |
\(\text{Total y promedio globales}\) | \({y}_{\cdot,\cdot}=\sum\limits_{i=1}^{a}y_{i,\cdot}\) | \(\overline{y}_{\cdot,\cdot}=\frac{y_{\cdot,\cdot}}{n}\) |
Para detectar diferencias entre los tratamientos existe la prueba del análisis de varianza, que realiza una partición de la suma de cuadrados totales corregida (\({SC}_{total}\)), entre la suma de cuadrados entre los tratamientos (\({SC}_{tratamientos}\)) y la suma de cuadrados dentro o al interior de los tratamientos (\({SC}_{error}\)).
\[ \begin{align} \sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{\cdot,\cdot}\right)}^{2}&=\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left[\left(y_{i,j}-\overline{y}_{i,\cdot}\right)+\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)\right]}^{2}\notag\\ &=\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left[\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)+\left(y_{i,j}-\overline{y}_{i,\cdot}\right)\right]}^{2}\notag\\ &=\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)}^{2}+\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{i,\cdot}\right)}^{2}+2\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{i,\cdot}\right)\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)}\notag\\ &={n}\sum\limits_{i=1}^{a}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)}^{2}+\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{i,\cdot}\right)}^{2}+2\sum\limits_{i=1}^{a}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)\sum\limits_{j=1}^{n}\left(y_{i,j}-\overline{y}_{i,\cdot}\right)}\notag\\ &={n}\sum\limits_{i=1}^{a}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)}^{2}+\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{i,\cdot}\right)}^{2}+2{\sum\limits_{i=1}^{a}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)\left[\sum\limits_{j=1}^{n}{y_{i,j}}-\sum\limits_{j=1}^{n}{\overline{y}_{i,\cdot}}\right]}}\notag\\ &={n}\sum\limits_{i=1}^{a}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)}^{2}+\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{i,\cdot}\right)}^{2}+2{\sum\limits_{i=1}^{a}\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)\left[\sum\limits_{j=1}^{n}{y_{i,j}}-{n}{\frac{\sum\limits_{j=1}^{n}{y}_{i,j}}{n}}\right]}\notag\\ &={n}\sum\limits_{i=1}^{a}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)}^{2}+\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{i,\cdot}\right)}^{2}\notag\\ {SC}_{total}&={SC}_{tratamientos}+{SC}_{error}\notag \end{align} \]
Fuente de variación | Suma de cuadrados | Grados de libertad | Cuadrados medios (o varianzas) | Estadístico de prueba |
---|---|---|---|---|
Tratamientos | \({SC}_{tratamientos}\) | \(a-1\) | \({CM}_{tratamientos}=\frac{{SC}_{tratamientos}}{a-1}\) | \({F}_{0}=\frac{{CM}_{tratamientos}}{{CM}_{error}}\) |
Error | \({SC}_{error}\) | \(N-a\) | \({CM}_{error}=\frac{{SC}_{error}}{N-a}\) | |
Total | \({SC}_{total}\) | \(N-1\) | \({CM}_{total}=\frac{{SC}_{total}}{N-1}\) |
Una vez se determina la existencia de diferencias entre los tratamientos del experimento, el interés se centra en cual de ellos tiene el mejor rendimiento; una solución es comparar las medias por pares usando una prueba estadística como la t de Student, pero al hacerlo así se produce un aumento del error tipo I que se quiere admitir y como alternativa surgen las pruebas de comparaciones múltiples que corrigen el error para conseguir que no sobrepase el nivel de significancia establecido para lo cual se deben probar hipótesis de la forma:
\[ \begin{align} {H}_{0}:{\mu}_{i}={\mu}_{j}\text{ vs. }{H}_{1}:{\mu}_{i}\neq{\mu}_{j}\notag \end{align} \]
Algunos de los procedimientos más usados para probar la hipótesis anterior son: el test de Bonferroni, el Least Significant Difference (o LSD) de Fisher, la prueba de Diferencia Significativa Honesta de Tukey (DSH), la prueba del Rango múltiple de Duncan, la prueba de Dunnett, la prueba de Scheffé y la prueba de Student-Neuman-Keuls.
La determinación de un tamaño de muestra esta estrechamente ligada a la finalidad que tenga el estudio
Una vez realizado el contraste de hipótesis, se habrá optado por una de las dos hipótesis, la hipótesis nula o base \(H_{0}\) o la hipótesis alternativa \(H_{1}\), y la decisión escogida coincidirá o no con la que en realidad es cierta. Se pueden dar los cuatro casos que se exponen en el siguiente cuadro:
\(H_{0}\) es cierta | \(H_{0}\) es falsa | |
---|---|---|
No se rechaza \(H_{0}\) | No hay error (verdadero negativo) | Error de tipo II (\(\beta\) o falso negativo) |
Se rechaza \(H_{0}\) | Error de tipo I (\(\alpha\) o falso positivo) | No hay error (verdadero positivo) |
En este caso, se denomina Potencia del contraste al valor \(1-\beta\), esto es, a la probabilidad de rechazar \({H}_{0}\) cuando esta es falsa
\[ \begin{equation} p\left(Rechazar\ {H}_{0} | {H}_{0}\ es\ falsa\right)=1-\beta \notag \end{equation} \]
\[ \begin{align} \beta\left({\mu}_{x}\right)&=P\left(\frac{{\bar{x}}-{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}>{t}_{(1-\alpha,n-1)}\right)\notag\\ &=P\left(\frac{{\bar{x}}}{\frac{{s}}{{\sqrt{n}}}}-\frac{{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}>{t}_{(1-\alpha,n-1)}\right)\notag\\ &=P\left(\frac{{\bar{x}}}{\frac{{s}}{{\sqrt{n}}}}>{t}_{(1-\alpha,n-1)}+\frac{{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}\right)\notag\\ &=P\left(\frac{{\bar{x}}}{\frac{{s}}{{\sqrt{n}}}}-\frac{{\mu}}{\frac{{s}}{{\sqrt{n}}}}>{t}_{(1-\alpha,n-1)}+\frac{{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}-\frac{{\mu}}{\frac{{s}}{{\sqrt{n}}}}\right)\notag\\ &=P\left(\frac{{\bar{x}-{\mu}}}{\frac{{s}}{{\sqrt{n}}}}>{t}_{(1-\alpha,n-1)}+\frac{{\mu}_{0}-{\mu}}{\frac{{s}}{{\sqrt{n}}}}\right)\notag \end{align} \]
\[ \begin{align} \beta\left({\mu}_{x}\right)&=P\left(\frac{{\bar{x}}-{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}<{t}_{(\alpha,n-1)}\right)\notag\\ &=P\left(\frac{{\bar{x}}}{\frac{{s}}{{\sqrt{n}}}}-\frac{{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}<{t}_{(\alpha,n-1)}\right)\notag\\ &=P\left(\frac{{\bar{x}}}{\frac{{s}}{{\sqrt{n}}}}<{t}_{(\alpha,n-1)}+\frac{{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}\right)\notag\\ &=P\left(\frac{{\bar{x}}}{\frac{{s}}{{\sqrt{n}}}}-\frac{{\mu}}{\frac{{s}}{{\sqrt{n}}}}<{t}_{(\alpha,n-1)}+\frac{{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}-\frac{{\mu}}{\frac{{s}}{{\sqrt{n}}}}\right)\notag\\ &=P\left(\frac{{\bar{x}-{\mu}}}{\frac{{s}}{{\sqrt{n}}}}<{t}_{(\alpha,n-1)}+\frac{{\mu}_{0}-{\mu}}{\frac{{s}}{{\sqrt{n}}}}\right)\notag \end{align} \]
La potencia de cualquier test estadístico esta ligada al tamaño de muestra utilizado, la pregunta crucial no es ¿cómo aumento la potencia? sino ¿hasta dónde aumento el tamaño de muestra?. Para responder a esta pregunta se analiza la potencia de la prueba \(F\) del análisis de varianza (o ANOVA).
El estadístico de prueba es el siguiente:
\[ \begin{equation} {F}=\frac{{CM}_{tratamientos}}{{CM}_{error}}\sim{F}_{{gl}_{tratamientos},{gl}_{error}} \notag \end{equation} \]
El cual bajo la hipótesis alternativa \(H_1\), sigue una distribución F no central
Dadas dos variables aleatorias independientes \(X\) e \(Y\) donde \(X\) sigue una distribución \(\chi_{{\nu}_{1}}^{2}\) no central de \({\nu}_{1}\) grados de libertad y parámetro de no centralidad \(\lambda\), \(Y\) sigue una distribución \(\chi_{{\nu}_{2}}^{2}\) no central de \({\nu}_{2}\) grados de libertad entonces el cociente:
\[ \begin{equation} {F}^{'}=\frac{\frac{X}{{\nu}_{1}}}{\frac{Y}{{\nu}_{2}}}\ \text{sigue una distribuci?n $F$ no central de par?metros $\left({\nu}_{1} ,{\nu}_{1}, {\lambda}\right)$} \notag \end{equation} \]
Por fortuna, esta distribución de tres parámetros \(\left({\nu}_{1} ,{\nu}_{1}, {\lambda}\right)\) se encuentra tabulada en R bajo las mismas funciones que la \(F\) central añadiendo la opción \(ncp=\).
# whatever you want to plot goes here (one plot at a time!)
par(mfrow=c(1,1), mar=c(4,4,1,1)+.2)
x <- seq(0,12,0.01)
# try different degrees of freedom
ncp <- c(1, 3, 5, 15)
# set up colours and labels for the functions and plot legend
colors <- c("red", "blue", "darkgreen", "gold", "black")
labels <- c("ncp=1", "ncp=3", "ncp=5", "ncp=15", "F central")
# plot Z first
plot(x, df(x, df1=5, df2=3, ncp=0, log = FALSE), type="l", lty=2, xlab="",
ylab="", main="")
# add lines representing t-distribution
for (i in 1:4){
lines(x, df(x, df1=5-1, df2=5*(5-1), ncp[i], log = FALSE), lwd=2, col=colors[i])
}
# add legend
legend("topright", title="Distribuci?n F",
labels, lwd=2, lty=c(1, 1, 1, 1, 2), col=colors)
Para calcular el tamaño de muestra se utiliza un proceso inverso, suponiendo que se conoce y calculando la potencia alcanzada. La idea es entonces, construir una tabla que describa la potencia alcanzada para diferentes tamaños de muestra y seleccionar el tamaño asociado a una potencia adecuada. La siguiente función de R permite agilizar los cálculos necesarios:
funcion.de.potencia=function(n,suma,a,CMerror,alpha)
{
gl.tratamientos=a-1
gl.error=a*(n-1)
lambda=n*suma/(a*CMerror)
f0=qf(alpha, a-1, gl.error, lower.tail = F)
potencia=pf(f0, a-1, a*(n-1), ncp=lambda, lower.tail = F)
potencia
}
Para los datos del ejemplo del algodón (ver libro de Montgomery) se tiene lo siguiente: \(a = 5\), \(\tau_1 = -5.24\), \(\tau_2 = 0.36\), \(\tau_3 = 2.56\), \(\tau_4 = 6.56\), \(\tau_5 = -4.24\), \(\sum_{i=1}^{a}\tau_i^2 = 95.152\), \(CMerror = 8.06\), \(\alpha = 0.01\) y con ayuda de la función anterior se puede construir la siguiente tabla:
funcion.de.potencia(n=5,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.3987637
funcion.de.potencia(n=6,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.5378791
funcion.de.potencia(n=7,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.6606122
funcion.de.potencia(n=8,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.7605935
funcion.de.potencia(n=9,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.8370501
funcion.de.potencia(n=10,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.8925646
funcion.de.potencia(n=11,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.9311568
funcion.de.potencia(n=12,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.957004
set.seed(7638)
f <- factor( rep( c(35, 40, 45 ), each = 4))
fac <- sample( f, 12 )
eu <- 1:12
plan <- data.frame( loaf=eu, time=fac )
#write.csv(plan, file = "C:/Users/User/Documents/MarioGregorioSaavedra/UniversidadUMB/Segundo semestre de 2018/DisenoDeExperimentos/BaseDeDatosClase/Plan.csv", row.names = FALSE)
#library(daewr)
#data(bread)
#bread <- read.csv("C:/Users/User/Documents/MarioGregorioSaavedra/UniversidadUMB/Segundo semestre de 2018/DisenoDeExperimentos/BaseDeDatosClase/Plan.csv")
<<echo=TRUE>>=
@
Por ejemplo, en un experimento para determinar el efecto del tiempo de subida en la altura de la masa de pan, un lote homog?neo de masa de pan se dividir?a en \(n\) sartenes con la misma cantidad de masa en cada uno. Las bandejas de masa se dividir?an aleatoriamente en t grupos. Cada grupo podr?a levantarse por un tiempo ?nico, y la altura de la masa aumentada se medir?a y registrar?a para cada barra. El factor de tratamiento ser?a el tiempo de subida, la unidad experimental ser?a una barra de pan individual, y la respuesta ser?a la altura medida
<<echo=TRUE>>= library(daewr) data(bread) mod0 <- lm( height ~ time, data = bread) summary(mod0) @
<<echo=TRUE>>= library(gmodels) fit.contrast( mod0, “time”, c(1, -1,0) ) @
<<echo=TRUE>>= mod1 <- aov( height ~ time, data = bread ) summary(mod1) @