1 Introducción

1.1 Conceptos básicos

Cuando se habla de diseño de experimentos estadísticos se debe tener claridad acerca de algunos conceptos que permitirón tener éxito en la planeación y ejecución de diseños probabilísticos que logren ser extrapolables y tengan rigor estadístico.

1.2 Definición de algunos conceptos básicos

Algunos concpetos básicos del diseño de experimentos

  • Experimento: Prueba o serie de pruebas en las que se hacen cambios en las variables de entrada de un proceso para observar las razones de los cambios en la respuesta de salida.
  • Factor: Variables controlables estudiadas dentro del experimento, puede serv cuantitativa (tipo de material) o cualitativa (temperatura, presión).
  • Factor de Bloqueo (o Bloque): Variable categórica que afecta los resultados del experimento (factor perturbador) pero que no atrae el interés principal dentro de la investigación.
  • Nivel: Valores que puede tomar un factor.
  • Tratamiento: Combinación de niveles de los factores.
  • Efecto: Cambio en la variable respuesta debido al cambio de nivel de un factor.
  • Interacción: Efecto producido por dos factores que cambian simultáneamente difiere del producido cuando cambian de manera individual.
  • Unidad experimental: Unidad sobre la cual se toman las mediciones.
  • Réplica: Observación de una tratamiento sobre diferentes unidades experimentales
  • Corrida: Proceso generado para obtener una observación sobre una unidad experimental

1.3 Finalidad del diseño de experimentos

  • Determinar cuales son las variables que tienen mayor influencia sobre la variable respuesta.
  • Determinar el mejor valor de las variables controlables, de manera que la variable respuesta tenga casi siempre un valor cercano al valor nominal deseado.
  • Determinar la mejor combinación de las variables controlables que ayuden a disminuir la variabilidad de la respuesta.
  • Desarrollar procesos robustos ante cambios en las variables incontrolables.

2 Principios básicos

Si se quiere desarrollar un experimento con la mayor eficiencia posible debe seguirse un enfoque científico en su planeación, El diseño estadístico de experimentos se refiere al proceso para planear el experimento de tal forma que los datos recolectados puedan analizarse con métodos estadísticos que lleven a conclusiones válidas y objetivas.

Los tres principios básicos del diseño experimental son:

  • La realización de réplicas: La repetición del experimento básico que posee dos propiedades importantes:
    • Obtener una estimación del error experimental (\(\boldsymbol{\varepsilon}\)): Medición básica para determinar si las diferencias observadas en los datos son estadísticamente diferentes
    • Obtener la estimación de la media muestral (\(\boldsymbol{\bar{y}}\)): Si ésta es usada para estimar el efecto de una factor en el experimento, la realización de replicas permite obtener una estimación más precisa de dicho efecto. \[ \sigma_{\bar{y}}^{2}=\frac{\sigma_{y}^{2}}{n}\stackrel{{n}\rightarrow{\infty}}{=}0 \notag \]
  • La aleatorización: Tanto la asignación del material experimental como el orden en que se realizan las corridas o ensayos individuales del experimento se determinan aleatoriamente; ayuda a sacar del promedio los efectos de factores extraños que pudieran estar presentes.
  • La formación de bloques: Técnica de diseño que se utiliza para mejorar la precisión de las comparaciones que se hacen entre los factores de interés se usa para reducir al mínimo la variabilidad transmitida por factores perturbadores.

3 Pautas generales para diseñar experimentos

3.1 Identificación del problema:

  • Tener claros que un problema necesita experimentación y establecer los objetivos del experimento
  • Generalmente se requiere del apoyo de las partes involucradas: Ingeniería, aseguramiento de la calidad, manufactura, mercadotécnia, administración, cliente, personal de operación, etc.

3.2 Elección de los factores y niveles:

  • Debe diferenciarse entre los factores potenciales del diseño y los factores perturbadores
  • Se debe diferenciar si los factores perturbadores son controlables o no ya que esto impacta el tipo de diseño a utilizar
  • La elección de los niveles de cada factor generalmente resulta de una mezcla entre experiencia y conocimiento
  • Cuando el proceso no se tenga muy caracterizado, se recomienda utilizar pocos niveles que cubran grandes regiones de interés y a medida que se conozca el proceso, aumentar la cantidad de niveles y disminuir la región de interés

3.3 Elección de la variable o las variables respuesta:

  • ¿Qué variable proporciona en realidad información útil para caracterizar el experimento?
  • ¿Es necesario medir varias variables respuesta?
  • ¿Es necesario hacer un seguimiento temporal a la variable o variables respuesta?
  • ¿La eficiencia de los instrumentos de medición juega un papel importante cuando la eficiencia de los instrumentos de medición es pobre, se pueden tomar varias mediciones sobre la misma unidad experimental y tomar su promedio como variable respuesta
  • Calibrar los instrumentos de medición y construir formatos para registrar las mediciones

3.4 Elección del diseño experimental:

  • Determinación del tamaño de la muestra
  • Determinación del orden de las corridas (o del esquema de aleatorización)

3.5 Ejecución del experimento:

  • Monitoreo constante para asegurar que todo se realice conforme a la planeación.
  • Realizar corridas piloto, no solo permite probar la ejecución del experimento sino además la consistencia del material, la forma de medición, la elección del tamaño de muestra.

3.6 Análisis estadístico:

  • El análisis estadístico no debe desligarse de los pasos anteriores.
  • Los métodos estadísticos no permiten la demostración experimental de nada, pero si para medir el error posible en una conclusión o asignar un nivel de confianza a una proposición.
  • Los métodos estadísticos agregan objetividad a la toma de decisiones.
  • Los métodos estadísticos combinados con un buen conocimiento del proceso suelen llevar a conclusiones válidas.

3.7 Conclusiones y recomendaciones:

  • Acompañarlas de gráficos para facilitar la comprensión.
  • Tener presente que la experimentación es iterativa.

4 Algo de historia

Ha habido cuatro eras en el desarrollo moderno del diseño experimental estadístico:

  • Era agrícola: Ronald Fisher (1890 - 1962) Creador de la inferencia estadística; inventor del análisis de varianza, estableció los tres principios del diseño experimental: aleatorización, replicación y control local; descubrió los diseños de cuadrados látinos mientras aislaba los efectos de la calidad de la tierra en el estudio de fertilizantes y fue fundador de la sociedad de Eugenesia de la Universidad de Cambridge junto con Horace Darwin.
  • Era industrial: George Box (1919 - ) “Todos los modelos están errados pero algunos son útiles”, realizó aportes al diseño de experimentos, control de calidad, series de tiempo e inferencia bayesiana, co-inventor de la metodología Box - Jenkins para series de tiempo, creador de la transformación de Box - Cox y del diseño Box - Behnken, inventor de la metodología de superficies de respuesta que revolucionó el diseño experimental en la industria, “inmediatez y secuencialidad en la industria”, casado con Joan Fisher (hija de Ronald Fisher).
  • Diseños robustos: Genichi Taguchi (1924 - 2012) Creador del término diseño robusto, procesos insensibles a factores no controlables, modelamiento conjunto de media y varianza, diseños factoriales altamente fraccionados, introdujo el concepto de función de pérdida para medir la pérdida financiera resultante de la mala calidad del producto.
  • Renovación y expansión: Renovación en el conocimiento, alternativas a los métodos de Taguchi, extensiones a la metodología de superficies de respuesta, difusión en la educación en diseño experimental y expansión del diseño experimental en otros campos.

5 Software para analizar diseños experimentales

Software Cobro Gráficas Actualizado Interface
SAS Comercial Baja No Si
SPSS Comercial Baja No Si
MINITAB Comercial Baja No Si
DESIGN EXPERT Comercial Alta No Si
R Gratuito Alta Si No

6 Inferencia estadística

La inferencia estadística se divide en dos grandes áreas:

  • Estimación de parámetros; puntual \(\widehat{\Theta}\) y por intervalos \(\mathcal{P}_{{\Theta}_{0}}\left[{\Theta}\in\left(\widehat{\Theta}_{L};\widehat{\Theta}_{U}\right)\right]\)
  • Pruebas de hipótesis \({H}_{0}:{\Theta}\in{\Theta}_{0}\) vs. \({H}_{1}:{\Theta}\not\in{\Theta}_{0}\)

Para el caso particular del diseño experimental el interés se centra en el contraste o prueba de hipótesis para:

  • La media de una distribución \({\mu}_{x}\)
  • La varianza de una distribución \({\sigma}_{x}^{2}\)
  • La diferencia de medias \({\mu}_{x}-{\mu}_{y}\)
  • El cociente de varianzas \(\frac{{\sigma}_{x}^{2}}{{\sigma}_{y}^{2}}\)

6.1 Pruebas de hipótesis

Una prueba de hipótesis examina dos hipótesis opuestas sobre una población: (i) la hipótesis nula o el enunciado que se probar y (ii) la hipótesis alternativa es el complemento de la anterior. Pasos para la construcción de una prueba de hipótesis:

  • Plantear las hipótesis nula (de prueba) y alternativa
  • Con los datos recolectados calcular un estadístico de prueba
  • Obtener el valor crítico de la tabla estadística adecuada
  • Comparar los dos valores y decidir, si el valor calculado es mayor al valor teorico que se debe rechazar la hipótesis nula.
  • En las pruebas estadísticas es muy común la utilización de un valor p, el cual mide el porcentaje de error presente al rechazar la hipótesis nula, su interpretación es:
    • Si el valor \(\boldsymbol{p}\) es menor al nivel de error establecido se rechaza la hipótesis nula
    • Si el valor \(\boldsymbol{p}\) es mayor o igual al nivel de error establecido no se rechaza la hipótesis nula
  • Concluir acerca del resultado

6.1.1 Para la media \({\mu}_{x}\)

  • Sistema de hipótesis: \({H}_{0}:{\mu}_{x}={\mu}_{0}\) vs. \({H}_{1}:{\mu}_{x}\neq{\mu}_{0}\) \({t}=\frac{{\bar{x}}-{\mu}_{0}}{\frac{{s}_{x}}{{\sqrt{n}}}}\) cuando se desconoce la varianza poblacional \({\sigma}^{2}_{x}\)
  • Regla de decisión: \(\left|t\right| > {t}_{(1-\frac{\alpha}{2},n-1)}\) o se rechaza la hipótesis nula \({H}_{0}\) en favor de la alternativa \({H}_{1}\) a un nivel de significancia \({\alpha}\) cuando el valor absoluto del estadístico de prueba calculado exceda el percentil \(1-\frac{{\alpha}}{2}\) de una distribución \(t\) con \(n-1\) grados de libertad.

6.1.1.1 Ejemplo en R

  • Generación de la media poblacional \({\mu}_{x}\)
media.poblacional <- round(rnorm(1,16,4),0)
media.poblacional
## [1] 11
  • Generación de la Población \({U}\) a partir de la media poblacional \({\mu}_{x}\)
U=rnorm(200,media.poblacional,rnorm(1,2,1))
  • Generación de una muestra \({s}\) a partir de la población generada \({U}\)
s=sample(U, 20, replace = FALSE, prob = NULL)

A partir de lo anterior se realiza una prueba de hipótesis sobre la media poblacional

Código en R: El siguiente código realiza la prueba de hipótesis planteada anteriormente

  • Resultado de la prueba de hipótesis
prueba.t <- t.test(s,mu=media.poblacional)
prueba.t
## 
##  One Sample t-test
## 
## data:  s
## t = 0.85148, df = 19, p-value = 0.4051
## alternative hypothesis: true mean is not equal to 11
## 95 percent confidence interval:
##  10.57092 12.01762
## sample estimates:
## mean of x 
##  11.29427
  • Estadístico de prueba
prueba.t$statistic
##         t 
## 0.8514835
  • Grados de libertad
prueba.t$parameter
## df 
## 19
  • Valor p
prueba.t$p.value
## [1] 0.4051053
  • Intervalo de confianza y confiabilidad
prueba.t$conf.int
## [1] 10.57092 12.01762
## attr(,"conf.level")
## [1] 0.95
  • Media muestral
prueba.t$estimate
## mean of x 
##  11.29427
  • Media poblacional bajo la hipótesis nula
prueba.t$null.value
## mean 
##   11
  • Hipótesis alternativa
prueba.t$alternative
## [1] "two.sided"
  • Método empleado
prueba.t$method
## [1] "One Sample t-test"
  • Datos usados
prueba.t$data.name
## [1] "s"

7 Para la varianza \({\sigma}_{x}^{2}\)

  • Sistema de hipótesis: \({H}_{0}:{\sigma}_{x}^{2}={\sigma}_{0}^{2}\) vs. \({H}_{1}:{\sigma}_{x}^{2}\neq{\sigma}_{0}^{2}\)
  • Estadístico de prueba: \({\chi}^{2}=\frac{\left(n-1\right){s}_{x}^{2}}{{\sigma}_{x}^{2}}\)
  • Regla de decisión: \(\left|{\chi}^{2}\right| > {\chi}_{(1-\frac{\alpha}{2},n-1)}\) o se rechaza la hipótesis nula \({H}_{0}\) en favor de la alternativa \({H}_{1}\) a un nivel de significancia \({\alpha}\) cuando el estadístico de prueba calculado exceda el percentil \(\frac{{\alpha}}{2}\) de una distribución \({\chi}^{2}\) con \(n-1\) grados de libertad.

8 Para el cociente de varianzas \(\frac{{\sigma}_{x}^{2}}{{\sigma}_{y}^{2}}\)

  • Sistema de hipótesis: \({H}_{0}:\frac{{\sigma}_{x}^{2}}{{\sigma}_{y}^{2}}={\sigma}_{0}^{2}\) vs. \({H}_{1}:\frac{{\sigma}_{x}^{2}}{{\sigma}_{y}^{2}}\neq{\sigma}_{0}^{2}\)
  • Estadístico de prueba: \({f}=\frac{{s}_{x}^{2}}{{s}_{y}^{2}}\)
  • Regla de decisión: \(\left|f\right| > {f}_{(1-\frac{\alpha}{2},{n}_{x}-1,{n}_{y}-1)}\) o se rechaza la hipótesis nula \({H}_{0}\) en favor de la alternativa \({H}_{1}\) a un nivel de significancia \({\alpha}\) cuando el estadístico de prueba calculado exceda el percentil \(\frac{{\alpha}}{2}\) de una distribución \(F\) con \({n}_{x}-1\) grados de libertad en el numerador y \({n}_{y}-1\) grados de libertad en el denominador.

9 Para la diferencia de medias \({\mu}_{x}-{\mu}_{y}\)

  • Sistema de hip?tesis: \({H}_{0}:{\mu}_{x}={\mu}_{y}\) vs. \({H}_{1}:{\mu}_{x}\neq{\mu}_{y}\)
  • Estadístico de prueba: \({t}=\frac{{\bar{x}}-{\bar{y}}}{\sqrt{\frac{{s}_{x}^{2}}{{n}_{x}}+\frac{{s}_{y}^{2}}{{n}_{y}}}}\) cuando la varianza poblacional común \({\sigma}^{2}\) es desconocida
  • Regla de decisión: \(\left|t\right| > {t}_{\left(1-\frac{\alpha}{2},{\nu}\right)}\) o se rechaza la hipótesis nula \({H}_{0}\) en favor de la alternativa \({H}_{1}\) a un nivel de significancia \({\alpha}\) cuando el estadístico de prueba calculado exceda el percentil \(\frac{{\alpha}}{2}\) de una distribución \(t\) con \({\nu}\) grados de libertad.

\[ \begin{align} {\nu}=\frac{\left(\frac{{s}_{x}^{2}}{{n}_{x}}+\frac{{s}_{y}^{2}}{{n}_{y}}\right)^{2}}{\left(\frac{{s}_{x}^{2}}{{n}_{x}}\right)^{2}+\left(\frac{{s}_{y}^{2}}{{n}_{y}}\right)^{2}}-2\notag \end{align} \]

10 Diseños completamente aleatorizados

10.1 Comparaciones pareadas \({\mu}_{x}-{\mu}_{y}\)

  • Los diseños completamente aleatorizados surgen como la extensión a las pruebas de diferencia de medias cuando se tienen mas de dos grupos.
  • En el caso general se tienen \(a\) grupos o tratamientos correspondientes a los niveles de un factor y la hipótesis principal se centra en la igualdad de medias de dichos \(a\) grupos.
  • Existen diseños balanceados y desbalanceados.
  • Se busca dar respuesta a las siguientes preguntas:
    • ¿Existe diferencia entre los tratamientos?
    • ¿Cuál es el mejor tratamiento?

10.2 Esquemas de aleatorización

  • Un esquema de aleatorización determina el orden en el cual se deben recolectar las corridas de un experimento.
  • Busca minimizar efectos de factores externos (orden de consumo de productos, cansancio de operadores).
  • Se combina con la asignación aleatoria de los tratamientos a las unidades experimentales.
  • Un método y su implementación:
    • Método de coordinado negativo: permite realizar una asignación aleatoria de los tratamientos a las unidades experimentales y aleatorizar el orden en el que deben tomarse las observaciones.
    • Implementación: en el sortware estadístico R

11 Modelo estadístico

Supongase que en un diseño experimental de \({a}\) tratamientos, entonces se aplican los principios descritos anteriormente y se decide seleccionar aleatoriamente \({n}_{i}\) individuos para cada tratamiento, en este caso, luego de la recolección de la informaci?n se tiene un vector de \({N}=\sum_{i}^{a}{n}_{i}\) valores que representan la variable respuesta del experimento; se demostrará inicialmente como \({Y}_{0}=\left({y}_{1},{y}_{2},\ldots,{y}_{n}\right)^{t}\), este vector puede asociarse a los \(n\) tratamientos del experimento a trav?s de un modelo lineal \(\mathbf{Y}=\mathbf{X}\boldsymbol{\beta}+\boldsymbol{\varepsilon}\) donde

\[ \begin{align} \begin{bmatrix} {y}_{1,1}\\ {y}_{1,2}\\ \vdots \\ {y}_{1,{n}_{1}}\\ {y}_{2,1}\\ {y}_{2,2}\\ \vdots\\ {y}_{2,{n}_{2}}\\ \vdots\\ {y}_{a,1}\\ {y}_{a,2}\\ \vdots \\ {y}_{a,{n}_{a}} \end{bmatrix}&=\begin{bmatrix} {1}&{1}&{0}&\cdots&{0}\\ {1}&{1}&{0}&\cdots&{0}\\ \vdots&\vdots&\vdots&\ddots&\vdots\\ {1}&{1}&{0}&\cdots&{0}\\ {1}&{0}&{1}&\cdots&{0}\\ {1}&{0}&{1}&\cdots&{0}\\ \vdots&\vdots&\vdots&\ddots&\vdots\\ {1}&{0}&{1}&\cdots&{0}\\ \vdots&\vdots&\vdots&\ddots&\vdots\\ {1}&{0}&{0}&\cdots&{1}\\ {1}&{0}&{0}&\cdots&{1}\\ \vdots&\vdots&\vdots&\ddots&\vdots\\ {1}&{0}&{0}&\cdots&{1} \end{bmatrix}\begin{bmatrix} {\beta}_{0}\\ {\beta}_{1}\\ {\beta}_{2}\\ \vdots \\ {\beta}_{a} \end{bmatrix}+\begin{bmatrix} {\varepsilon}_{1,1}\\ {\varepsilon}_{1,2}\\ \vdots \\ {\varepsilon}_{1,{n}_{1}}\\ {\varepsilon}_{2,1}\\ {\varepsilon}_{2,2}\\ \vdots\\ {\varepsilon}_{2,{n}_{2}}\\ \vdots\\ {\varepsilon}_{a,1}\\ {\varepsilon}_{a,2}\\ \vdots \\ {\varepsilon}_{a,{n}_{1}} \end{bmatrix}\notag \end{align} \]

De donde, resolviendo el producto y la suma matricial, se obtiene lo siguiente:

\[ \begin{align} \begin{bmatrix} {y}_{1,1}\\ {y}_{1,2}\\ \vdots \\ {y}_{1,{n}_{1}}\\ {y}_{2,1}\\ {y}_{2,2}\\ \vdots\\ {y}_{2,{n}_{2}}\\ \vdots\\ {y}_{a,1}\\ {y}_{a,2}\\ \vdots \\ {y}_{a,{n}_{a}} \end{bmatrix}&=\begin{bmatrix} {\beta}_{0}+{\beta}_{1}+{\varepsilon}_{1,1}\\ {\beta}_{0}+{\beta}_{1}+{\varepsilon}_{1,2}\\ \vdots\\ {\beta}_{0}+{\beta}_{1}+{\varepsilon}_{1,{n}_{1}}\\ {\beta}_{0}+{\beta}_{2}+{\varepsilon}_{2,1}\\ {\beta}_{0}+{\beta}_{2}+{\varepsilon}_{2,2}\\ \vdots\\ {\beta}_{0}+{\beta}_{2}+{\varepsilon}_{2,{n}_{2}}\\ \vdots\\ {\beta}_{0}+{\beta}_{a}+{\varepsilon}_{a,1}\\ {\beta}_{0}+{\beta}_{a}+{\varepsilon}_{a,2}\\ \vdots\\ {\beta}_{0}+{\beta}_{a}+{\varepsilon}_{a,{n}_{a}} \end{bmatrix}\notag \end{align} \]

Y cambiando a la notación a la usada en dise?o experimental, con \({\beta}_{0}={\mu}\) y \({\beta}_{i}+{\varepsilon}_{i,j}={\tau}_{i,j}\), finalmente se tiene:

\[ \begin{align} \begin{bmatrix} {y}_{1,1}\\ {y}_{1,2}\\ \vdots \\ {y}_{1,{n}_{1}}\\ {y}_{2,1}\\ {y}_{2,2}\\ \vdots\\ {y}_{2,{n}_{2}}\\ \vdots\\ {y}_{a,1}\\ {y}_{a,2}\\ \vdots \\ {y}_{a,{n}_{a}} \end{bmatrix}&=\begin{bmatrix} {\mu}+{\tau}_{1}+{\varepsilon}_{1,1}\\ {\mu}+{\tau}_{1}+{\varepsilon}_{1,2}\\ \vdots\\ {\mu}+{\tau}_{1}+{\varepsilon}_{1,{n}_{1}}\\ {\mu}+{\tau}_{2}+{\varepsilon}_{2,1}\\ {\mu}+{\tau}_{2}+{\varepsilon}_{2,2}\\ \vdots\\ {\mu}+{\tau}_{2}+{\varepsilon}_{2,{n}_{2}}\\ \vdots\\ {\mu}+{\tau}_{a}+{\varepsilon}_{a,1}\\ {\mu}+{\tau}_{a}+{\varepsilon}_{a,2}\\ \vdots\\ {\mu}+{\tau}_{a}+{\varepsilon}_{a,{n}_{a}} \end{bmatrix}\notag \end{align} \]

En resúmen, el modelo en una sola ecuación:

\[ \begin{align} {y}_{i,j}&={\mu}+{\tau}_{i}+{\varepsilon}_{i,j}\ con\ i=1,2,\ldots,a, j=1,2,\ldots,{n}_{i}\notag \end{align} \]

En donde:

  • \({\mu}\): Representa un efecto promedio común a todas las observaciones
  • \({\tau}_{i}\): Representa el efecto del \(i\)-ésimo tratamiento
  • \({\varepsilon}_{i,j}\): Representa el término de error del modelo
  • \({y}_{i,j}\): Representa cada una de las observaciones tomadas
  • \({\bar{y}}_{\cdot,\cdot}\): Representa el promedio de todas las observaciones
  • \({\bar{y}}_{{i},\cdot}\): Representa el promedio de cada tratamiento
  • \({n}_{i}\): Representa la cantidad de réplicas por cada tratamiento

12 Estimación de parámetros

12.1 A partir de las ecuaciones normales

A partir del modelo escrito en forma matricial, las ecuaciones normales \(\left(\mathbf{X}^{t}\mathbf{X}\right)\beta=\mathbf{X}^{t}\mathbf{Y}\), toman la forma

\[ \begin{align} \begin{bmatrix} {N} & {n}_{1} & {n}_{2} & \cdots & {n}_{a}\\ {n}_{1} & {n}_{1} & {0} & \cdots & {0}\\ {n}_{2} & {0} & {n}_{2} & \cdots & {0}\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ {n}_{a} & {0} & 0 & \cdots & {n}_{a} \end{bmatrix}\begin{bmatrix} {\mu}\\ {\tau}_{1}\\ {\tau}_{2}\\ \vdots\\ {\tau}_{a} \end{bmatrix}&=\begin{bmatrix} {y}_{\cdot,\cdot}\\ {y}_{1,\cdot}\\ {y}_{2,\cdot}\\ \vdots\\ {y}_{a,\cdot} \end{bmatrix}\notag \end{align} \]

Es decir

\[ \begin{align} {N}{\mu}+\sum_{i=1}^{a}{n}_{i}{\tau}_{i}&={y}_{\cdot,\cdot}\notag\\ {n}_{i}{\mu}+{n}_{i}{\tau}_{i}&={y}_{i,\cdot}\ i=1,\ldots,a\notag \end{align} \]

Si se suma la última ecuación sobre todos los a tratamientos se obtiene la primera ecuación, por lo que se tiene un sistema de \(a\) ecuaciones con \(a+1\) parámetros desconocidos; y por tanto infinitas soluciones. Para solucionar lo anterior, es común imponer la restricción \(\sum_{i=1}^{a}{n}_{i}{\tau}_{i}=0\) y con esto obtener soluciones al sistema como las siguientes:

\[ \begin{align} \hat{\mu}&=\frac{{y}_{\cdot,\cdot}}{N}\notag\\ &=\bar{y}_{\cdot,\cdot}\notag\\ \hat{\tau}_{i}&=\frac{{y}_{i,\cdot}-{n}_{i}\hat{\mu}}{{n}_{i}}\notag\\ &=\bar{y}_{i,\cdot}-\bar{y}_{\cdot,\cdot}\notag \end{align} \]

12.2 A partir del álgebra lineal

El problema de la estimación de parámetros también puede ser abordado desde el punto de vista del álgebra lineal, veamos:

  • Es claro que la matriz \(\mathbf{X}^{t}\mathbf{X}\) no es de rango completo; por lo tanto la inversa, \({\left(\mathbf{X}^{t}\mathbf{X}\right)}^{-1}\), no existe y \(\hat{\mathbf{\beta}}=\left({\mu},{\tau}_{1},{\tau}_{2},\ldots,{\tau}_{a}\right)^{t}\) no es ?nica.
  • Es posible utilizar una inversa generalizada para \(\mathbf{X}^{t}\mathbf{X}\), con una de dichas inversas que satisfaga \(\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\mathbf{X}^{t}\mathbf{X}=\mathbf{X}^{t}\mathbf{X}\), y así hallar las soluciones del sistema de ecuaciones normales como:

\[ \begin{align} \mathbf{b}&=\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\mathbf{X}^{t}\mathbf{Y}\notag\\ &=\hat{\boldsymbol{\beta}}\notag \end{align} \]

  • Exsite un tipo de inversa muy utilizado en diseño experimental con algunas características interesantes, desde el punto de vista estadístico, se conoce como la ; y sus propiedades son las siguientes:
    • \(\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}=\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\)
    • \(\left[\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\mathbf{X}^{t}\mathbf{X}\right]^{t}=\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\mathbf{X}^{t}\mathbf{X}\)
    • \(\left[\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\right]^{t}=\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\)
  • A pesar de que \(\hat{\boldsymbol{\beta}}=\left({\mu},{\tau}_{1},{\tau}_{2},\ldots,{\tau}_{a}\right)^{t}\) no es única existen algunas combinaciones de elementos de \(\boldsymbol{\beta}\) que no dependen de la inversa generalizada utilizada; a esas combinaciones se lse conoce como funciones estimables y son denotadas por: \({\boldsymbol{\lambda}}^{t}\boldsymbol{\beta}\).
  • Algunas de las inversas generalizadas más usadas y sus soluciones son:

\[ \begin{align} \left(\mathbf{X}^{t}\mathbf{X}\right)^{-}&=\begin{cases} \begin{bmatrix} 0 & 0 & 0 & \cdots & 0\\ 0 & \frac{1}{{n}_{1}} & 0 & \cdots & 0\\ 0 & 0 & \frac{1}{{n}_{2}} & \cdots & 0\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ 0 & 0 & 0 & \cdots & \frac{1}{{n}_{a}}\\ \end{bmatrix}& \text{con solución: }\hat{\mu}=0\text{ y }\hat{\tau}_{i}=\bar{y}_{i,\cdot}\\\\ \begin{bmatrix} +\frac{1}{{N}} & 0 & 0 & \cdots & 0\\ -\frac{1}{{N}} & \frac{1}{{n}_{1}} & 0 & \cdots & 0\\ -\frac{1}{{N}} & 0 & \frac{1}{{n}_{2}} & \cdots & 0\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ -\frac{1}{{N}} & 0 & 0 & \cdots & \frac{1}{{n}_{a}}\\ \end{bmatrix}& \text{con solución: }\hat{\mu}=\bar{y}_{\cdot,\cdot}\text{ y }\hat{\tau}_{i}=\bar{y}_{i,\cdot}-\bar{y}_{\cdot,\cdot}\\\\ \begin{bmatrix} 0 & +\frac{1}{{n}_{1}} & 0 & \cdots & 0\\ 0 & 0 & 0 & \cdots & 0\\ 0 & -\frac{1}{{n}_{1}} & \frac{1}{{n}_{2}} & \cdots & 0\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ 0 & -\frac{1}{{n}_{1}} & 0 & \cdots & \frac{1}{{n}_{a}}\\ \end{bmatrix}& \text{con solución: }\hat{\mu}=\bar{y}_{1,\cdot}\text{ y }\hat{\tau}_{i}=\bar{y}_{i,\cdot}-\bar{y}_{1,\cdot} \end{cases}\notag \end{align} \]

Finalmente, las estimaciones para la variable respuesta y los residuales son dadas por:

\[ \begin{align} \hat{y}_{i,j}&=\hat{\mu}+\hat{\tau}_{i}\notag \end{align} \]

Luego se tiene que las estimaciones para la variable respuesta \(\hat{y}_{i,j}\) y los residuales del modelo \(\hat{r}_{ij}\) quedan dados por:

\[ \begin{align} \hat{y}_{i,j}&=\bar{y}_{\cdot,\cdot}+\left(\bar{y}_{i\cdot}-\bar{y}_{\cdot,\cdot}\right)\notag\\ &=\bar{y}_{i\cdot}\notag\\ \hat{r}_{ij}&={y}_{i,j}-\hat{y}_{i,j}\notag\\ &={y}_{i,j}-\bar{y}_{i\cdot}\notag \end{align} \]

12.3 Estimabilidad

Una combinación lineal \({\boldsymbol{\lambda}}^{t}\boldsymbol{\beta}\) es estimable si es identicamente igual a alguna función lineal del valor esperado del vector de observaciones \(\mathbf{Y}\) o, lo que es lo mismo, si existe un vector \(\mathbf{a}\), tal que:

\[ \begin{align} E\left({\mathbf{a}}^{t}\mathbf{Y}\right)&={\mathbf{a}}^{t}E\left(\mathbf{Y}\right)\notag\\ &={\boldsymbol{\lambda}}^{t}\boldsymbol{\beta}\notag \end{align} \]

Y entonces \(\mathbf{a}^{t}\mathbf{Y}\) es un estimador insesgado para \({\boldsymbol{\lambda}}^{t}\boldsymbol{\beta}\), debe ser claro que al hacer uso de una inversa generalizada la \(E\left[\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\mathbf{X}^{t}\mathbf{Y}\right]\) no es el parámetro \(\boldsymbol{\beta}\); la deducción de la condición de estimabilidad es la siguiente:

\[ \begin{align} E\left({\mathbf{a}}^{t}\mathbf{Y}\right)&=E\left[{\mathbf{a}}^{t}\left(\mathbf{X}\boldsymbol{\beta}+\boldsymbol{\varepsilon}\right)\right]\notag\\ &={\mathbf{a}}^{t}E\left(\mathbf{X}\boldsymbol{\beta}+\boldsymbol{\varepsilon}\right)\notag\\ &={\mathbf{a}}^{t}E\left(\mathbf{X}\boldsymbol{\beta}\right)+{\mathbf{a}}^{t}E\left(\boldsymbol{\varepsilon}\right)\notag\\ &={\mathbf{a}}^{t}\mathbf{X}\boldsymbol{\beta}\notag \end{align} \]

De donde \({\mathbf{a}}^{t}\mathbf{X}=\boldsymbol{\lambda}^{t}\) o \({\mathbf{X}}^{t}\mathbf{a}=\boldsymbol{\lambda}\), así pues, \(\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\mathbf{X}^{t}\mathbf{X}=\boldsymbol{\lambda}^{t}\) o \(\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}=\boldsymbol{\lambda}\) luego se tiene que \(\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}=\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\boldsymbol{\lambda}\) y entonces \(\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}=\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\boldsymbol{\lambda}\); en resúmen el sistema \({\mathbf{X}}^{t}\mathbf{a}=\boldsymbol{\lambda}\) tendrá solución solo si \(\boldsymbol{\lambda}=\left[{\mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}}\right]\boldsymbol{\lambda}\)

12.3.1 Algoritmo de calculo de una inversa generalizada

\[ \begin{align} \mathbf{X}^{t}\mathbf{X}&=\begin{bmatrix} {N} & {n}_{1} & {n}_{2} & \cdots & {n}_{a}\\ {n}_{1} & {n}_{1} & {0} & \cdots & {0}\\ {n}_{2} & {0} & {n}_{2} & \cdots & {0}\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ {n}_{a} & {0} & 0 & \cdots & {n}_{a} \end{bmatrix}\notag \end{align} \]

Una inversa generalizada puede hallarse particionanado \(\mathbf{X}^{t}\mathbf{X}\) en cuatro bloques: con \({\mathbf{X}^{t}\mathbf{X}}_{1,1}=0\), un escalar, \({\mathbf{X}^{t}\mathbf{X}}_{1,2}=\mathbf{0}_{\left(1,n-1\right)}\) vector fila, \({\mathbf{X}^{t}\mathbf{X}}_{2,1}=\mathbf{0}_{\left(n-1,1\right)}\) un vector columna y calculando la inversa de la submatriz retante \({\mathbf{X}^{t}\mathbf{X}}_{2,2}\), as?:

\[ \begin{align} \mathbf{X}^{t}\mathbf{X}&=\begin{bmatrix} {0} & \mathbf{0}_{\left(1,n-1\right)}\\ \mathbf{0}_{\left(n-1,1\right)} & {\mathbf{X}^{t}\mathbf{X}_{2,2}}^{-1} \end{bmatrix}\notag \end{align} \]

12.3.2 Ejemplo de una inversa generalizada

\[ \begin{align} \mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}&=\begin{bmatrix} {N} & {n}_{1} & {n}_{2} & \cdots & {n}_{a}\\ {n}_{1} & {n}_{1} & {0} & \cdots & {0}\\ {n}_{2} & {0} & {n}_{2} & \cdots & {0}\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ {n}_{a} & {0} & 0 & \cdots & {n}_{a} \end{bmatrix}\begin{bmatrix} {0} & {0} & {0} & \cdots & {0}\\ {0} & \frac{1}{{n}_{1}} & {0} & \cdots & {0}\\ {0} & {0} & \frac{1}{{n}_{2}} & \cdots & {0}\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ {0} & {0} & 0 & \cdots & \frac{1}{{n}_{a}} \end{bmatrix}\notag\\ &=\begin{bmatrix} {1} & {1} & {1} & \cdots & {1}\\ {0} & {1} & {0} & \cdots & {0}\\ {0} & {0} & {1} & \cdots & {0}\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ {0} & {0} & 0 & \cdots & {1} \end{bmatrix}_{\left({a}\times{a}\right)}\notag \end{align} \]

12.3.3 Ejemplo de una hipótesis estimable

Probando con \(\boldsymbol{\lambda}^{t}=\left(0,-1,1,0,\ldots,0\right)_{\left({a}\times{1}\right)}\), se tiene que:

\[ \begin{align} \mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\boldsymbol{\lambda}&=\begin{bmatrix} {0} & {1} & {1} & \cdots & {1}\\ {0} & {1} & {0} & \cdots & {0}\\ {0} & {0} & {1} & \cdots & {0}\\ \vdots & \vdots & \vdots & \ddots & \vdots\\ {0} & {0} & {0} & \cdots & {1} \end{bmatrix}\begin{bmatrix} {0}\\ {1}\\ {-1}\\ \vdots\\ {0} \end{bmatrix}\notag\\ &=\begin{bmatrix} {0}\\ {1}\\ {-1}\\ \vdots\\ {0} \end{bmatrix}\notag\\ &=\boldsymbol{\lambda}\notag \end{align} \]

Luego, este producto cumple con la condici?n de estimabilidad por lo que \({\tau}_{1}-{\tau}_{2}\) es estimable

12.3.3.1 Ejemplo de una función no estimable

Probando con \(\boldsymbol{\lambda}^{t}=\left(0,1,1,-1,0,\ldots,0\right)_{\left({a}\times{1}\right)}\), se tiene que:

\[ \begin{align} \mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\boldsymbol{\lambda}&=\begin{bmatrix} {0} & {1} & {1} & {1} & \cdots & {1}\\ {0} & {1} & {0} & {0} & \cdots & {0}\\ {0} & {0} & {1} & {0} & \cdots & {0}\\ {0} & {0} & {0} & {1} & \cdots & {0}\\ \vdots & \vdots & \vdots & \vdots & \ddots & \vdots\\ {0} & {0} & {0} & {0} & \cdots & {1} \end{bmatrix}\begin{bmatrix} {0}\\ {1}\\ {1}\\ {-1}\\ \vdots\\ {0} \end{bmatrix}\notag\\ &=\begin{bmatrix} {1}\\ {1}\\ {1}\\ {-1}\\ \vdots\\ {0} \end{bmatrix}\notag\\ &\neq\boldsymbol{\lambda}\notag \end{align} \]

Luego, este producto no cumple con la condición de estimabilidad por lo que \({\tau}_{1}+{\tau}_{2}={\tau}_{3}\) no es estimable; y por lo tanto esta hipótesis no puede ser probada, aunque puede ser modificada por una que si pueda probarse, como por ejemplo: probando esta vez con \(\boldsymbol{\lambda}^{t}=\left(0,\frac{1}{2},\frac{1}{2},-1,0,\ldots,0\right)_{\left({a}\times{1}\right)}\)

\[ \begin{align} \mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\boldsymbol{\lambda}&=\begin{bmatrix} {0} & {1} & {1} & {1} & \cdots & {1}\\ {0} & {1} & {0} & {0} & \cdots & {0}\\ {0} & {0} & {1} & {0} & \cdots & {0}\\ {0} & {0} & {0} & {1} & \cdots & {0}\\ \vdots & \vdots & \vdots & \vdots & \ddots & \vdots\\ {0} & {0} & {0} & {0} & \cdots & {1} \end{bmatrix}\begin{bmatrix} {0}\\ {\frac{1}{2}}\\ {\frac{1}{2}}\\ {-1}\\ \vdots\\ {0} \end{bmatrix}\notag\\ &=\begin{bmatrix} {0}\\ {\frac{1}{2}}\\ {\frac{1}{2}}\\ {-1}\\ \vdots\\ {0} \end{bmatrix}\notag\\ &=\boldsymbol{\lambda}\notag \end{align} \]

Y finalmente, este producto cumple con la condición de estimabilidad por lo que \(\frac{{\tau}_{1}+{\tau}_{2}}{2}={\tau}_{3}\) es una hipótesis estimable; la cual se lee como que el efecto del tratamiento dos y tres, en promedio tienen el mismo efecto que el tratamiento tres.

12.3.4 Condiciones para que una hipótesis sea estimable

\[ \begin{align} \mathbf{X}^{t}\mathbf{X}\left(\mathbf{X}^{t}\mathbf{X}\right)^{-}\boldsymbol{\lambda}&=\boldsymbol{\lambda}\notag\\ \begin{bmatrix} {0} & {1} & {1} & {1} & \cdots & {1}\\ {0} & {1} & {0} & {0} & \cdots & {0}\\ {0} & {0} & {1} & {0} & \cdots & {0}\\ {0} & {0} & {0} & {1} & \cdots & {0}\\ \vdots & \vdots & \vdots & \vdots & \ddots & \vdots\\ {0} & {0} & {0} & {0} & \cdots & {1} \end{bmatrix}\begin{bmatrix} {{\lambda}_{0}}\\ {{\lambda}_{1}}\\ {{\lambda}_{2}}\\ {{\lambda}_{3}}\\ \vdots\\ {{\lambda}_{a}} \end{bmatrix}&=\begin{bmatrix} {{\lambda}_{0}}\\ {{\lambda}_{1}}\\ {{\lambda}_{2}}\\ {{\lambda}_{3}}\\ \vdots\\ {{\lambda}_{a}} \end{bmatrix}\notag\\ \begin{bmatrix} {\sum\limits_{i=1}^{a}{\lambda}_{i}}\\ {{\lambda}_{1}}\\ {{\lambda}_{2}}\\ {{\lambda}_{3}}\\ \vdots\\ {{\lambda}_{a}} \end{bmatrix}&=\begin{bmatrix} {{\lambda}_{0}}\\ {{\lambda}_{1}}\\ {{\lambda}_{2}}\\ {{\lambda}_{3}}\\ \vdots\\ {{\lambda}_{a}} \end{bmatrix}\notag \end{align} \]

Con lo que finalmente se llega a la conclusión de que la combinación lineal \({\boldsymbol{\lambda}}^{t}\boldsymbol{\beta}\) ser? estimable si \({\lambda}_{0}=\sum\limits_{i=1}^{a}{\lambda}_{i}\)

12.4 Estimaciones de \(\boldsymbol{\beta}\)

Para el modelo \(y_{i,j}={\mu}+{\tau}_{i}+{\varepsilon}_{i,j}\), desde el punto de vista de los mínimos cuadrados para estimar \({\boldsymbol{\beta}}^{t}=\left(\mu,{\tau}_{1},{\tau}_{2},\ldots,{\tau}_{a}\right)\), se tiene que:

\[ \begin{align} S&=\sum\limits_{i=1}^{a}{\sum\limits_{j=1}^{{n}_{i}}{{\varepsilon}_{i,j}^{2}}}\notag\\ &=\sum\limits_{i=1}^{a}{\sum\limits_{j=1}^{{n}_{i}}{\left({y_{i,j}-{\mu}-{\tau}_{i}}\right)^{2}}}\notag \end{align} \]

Ahora bien, derivando con respecto a cada uno de los componentes de \(\boldsymbol{\beta}\) para encontrar los estimadores por máxima verosimilitud, se tiene que:

\[ \begin{align} \frac{\partial{S}}{\partial{\mu}}&={-2}\sum\limits_{i=1}^{a}{\sum\limits_{j=1}^{{n}_{i}}{\left({y_{i,j}-{\mu}-{\tau}_{i}}\right)}}\notag \end{align} \]

\[ \begin{align} \frac{\partial{S}}{\partial{{\tau}_{i}}}&={-2}{\sum\limits_{j=1}^{{n}_{i}}{\left({y_{i,j}-{\mu}-{\tau}_{i}}\right)}}\notag \end{align} \]

Igualando a cero, se llega a que:

\[ \begin{align} \sum\limits_{i=1}^{a}{\sum\limits_{j=1}^{{n}_{i}}{\left({y_{i,j}-\hat{\mu}-{\tau}_{i}}\right)}}&={0}\notag \end{align} \]

\[ \begin{align} \sum\limits_{j=1}^{{n}_{i}}{\left({y_{i,j}-{\mu}-\hat{\tau}_{i}}\right)}&={0}\notag \end{align} \]

12.5 Descomposición de la suma de cuadrados

Tratamiento Individuo \(1\) Individuo \(2\) \(\cdots\) Individuo \(n\) Totales
\(1\) \(\left(y_{1,1}-\mu-\tau_1\right)^{2}\) \(\left(y_{1,2}-\mu-\tau_1\right)^{2}\) \(\cdots\) \(\left(y_{1,n}-\mu-\tau_1\right)^{2}\) \(\sum\limits_{j=1}^{n}\left(y_{1,j}-\mu-\tau_1\right)^{2}\)
\(2\) \(\left(y_{2,1}-\mu-\tau_2\right)^{2}\) \(\left(y_{2,2}-\mu-\tau_2\right)^{2}\) \(\cdots\) \(\left(y_{2,n}-\mu-\tau_2\right)^{2}\) \(\sum\limits_{j=1}^{n}\left(y_{2,j}-\mu-\tau_2\right)^{2}\)
\(\vdots\) \(\vdots\) \(\vdots\) \(\ddots\) \(\vdots\) \(\vdots\)
\(a\) \(\left(y_{a,1}-\mu-\tau_a\right)^{2}\) \(\left(y_{a,2}-\mu-\tau_a\right)^{2}\) \(\cdots\) \(\left(y_{a,n}-\mu-\tau_a\right)^{2}\) \(\sum\limits_{j=1}^{n}\left(y_{a,j}-\mu-\tau_a\right)^{2}\)
Totales \(\sum\limits_{i=1}^{a}\left(y_{i,1}-\mu-\tau_i\right)^{2}\) \(\sum\limits_{i=1}^{a}\left(y_{i,2}-\mu-\tau_i\right)^{2}\) \(\cdots\) \(\sum\limits_{i=1}^{a}\left(y_{i,n}-\mu-\tau_i\right)^{2}\) \(\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}\left(y_{i,j}-\mu-\tau_i\right)^{2}\)

12.6 Derivadas parciales de la suma de cuadrados igualadas a cero

Debe ser claro que se tienen \(a+1\) parámetros a estimar en las \(a\) ecuaciones; por lo que se hace necesario imponer una restricción.

12.6.1 Para los tratamientos

\[ \begin{align} \sum\limits_{i=1}^{a}{n}{\tau}_{i}&=0\notag \end{align} \]

12.6.1.1 Estimación de parámetros

\[ \begin{align} \sum\limits_{i=1}^{a}{\sum\limits_{j=1}^{{n}_{i}}{{y_{i,j}}}}&={{N}\hat{\mu}}\notag\\ \frac{\sum\limits_{i=1}^{a}{\sum\limits_{j=1}^{{n}_{i}}{{y_{i,j}}}}}{{N}}&={\hat{\mu}}\notag\\ \bar{y}_{\cdot,\cdot}&=\notag \end{align} \]

\[ \begin{align} \sum\limits_{j=1}^{{n}_{i}}{y_{i,j}}-{{n}_{i}}\hat{\mu}&={{n}_{i}}{\hat{\tau}_{i}}\notag\\ \frac{\sum\limits_{j=1}^{{n}_{i}}{y_{i,j}}}{{n}_{i}}-\hat{\mu}&={\hat{\tau}_{i}}\notag\\ \bar{y}_{i,\cdot}-\bar{y}_{\cdot,\cdot}&=\notag \end{align} \]

12.6.2 Valores estimados y residuales del modelo \({y}_{i,j}=\mu+\tau_i+\varepsilon_{i,j}\)

\[ \begin{align} \hat{y}_{i,j}&=\bar{y}_{\cdot,\cdot}+\left(\bar{y}_{i,\cdot}-\bar{y}_{\cdot,\cdot}\right)\notag\\ &=\bar{y}_{i,\cdot}\notag \end{align} \]

\[ \begin{align} \hat{r}_{i,j}&={y}_{i,j}-\bar{y}_{i,\cdot}\notag \end{align} \]

13 Hipótesis de interés

Las estimaciones de los parámetros reportan información acerca de:

  • Las posibles diferencias entre tratamientos
  • Cuáles tratamientos tienen un efecto positivo y cuales uno negativo
  • Cuál puede ser el mejor tratamiento

Sin embargo, estas hipótesis deben ser contrastadas mediante pruebas estadísticas. Las hipótesis para estas pruebas son principalmente:

  • \({H}_{0}:{\tau}_{1}={\tau}_{2}=\cdots={\tau}_{a}\) vs. \({H}_{1}:{\tau}_{i}\neq{\tau}_{j}\)
  • \({H}_{1}:{\tau}_{I}={\tau}_{j}\) vs. \({H}_{1}:{\tau}_{i}\neq{\tau}_{j}\)

13.1 Análisis de varianza (ANOVA)

Suponga que se tienen \(a\) tratamientos o niveles de un solo factor; los cuales quieren compararse. La respuesta observada en cada uno de los niveles es una variable aleatoria \({y}_{i,j}\), entonces los datos, típicos de un experimento con un solo factor, pueden disponerse en una tabla de la siguiente forma:

Tratamiento Observaciones Totales Promedios
\(1\) \(y_{1,1}\) \(y_{1,2}\) \(\cdots\) \(y_{1,n}\) \(y_{1,\cdot}=\sum\limits_{j=1}^{n}y_{1,j}\) \(\overline{y}_{1,\cdot}=\frac{y_{1,\cdot}}{n}\)
\(2\) \(y_{2,1}\) \(y_{2,2}\) \(\cdots\) \(y_{2,n}\) \(y_{2,\cdot}=\sum\limits_{j=1}^{n}y_{2,j}\) \(\overline{y}_{2,\cdot}=\frac{y_{2,\cdot}}{n}\)
\(\vdots\) \(\vdots\) \(\vdots\) \(\ddots\) \(\vdots\) \(\vdots\) \(\vdots\)
\(a\) \(y_{a,1}\) \(y_{a,2}\) \(\cdots\) \(y_{a,n}\) \(y_{a,\cdot}=\sum\limits_{j=1}^{n}y_{a,j}\) \(\overline{y}_{a,\cdot}=\frac{y_{a,\cdot}}{n}\)
\(\text{Total y promedio globales}\) \({y}_{\cdot,\cdot}=\sum\limits_{i=1}^{a}y_{i,\cdot}\) \(\overline{y}_{\cdot,\cdot}=\frac{y_{\cdot,\cdot}}{n}\)

Para detectar diferencias entre los tratamientos existe la prueba del análisis de varianza, que realiza una partición de la suma de cuadrados totales corregida (\({SC}_{total}\)), entre la suma de cuadrados entre los tratamientos (\({SC}_{tratamientos}\)) y la suma de cuadrados dentro o al interior de los tratamientos (\({SC}_{error}\)).

\[ \begin{align} \sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{\cdot,\cdot}\right)}^{2}&=\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left[\left(y_{i,j}-\overline{y}_{i,\cdot}\right)+\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)\right]}^{2}\notag\\ &=\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left[\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)+\left(y_{i,j}-\overline{y}_{i,\cdot}\right)\right]}^{2}\notag\\ &=\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)}^{2}+\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{i,\cdot}\right)}^{2}+2\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{i,\cdot}\right)\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)}\notag\\ &={n}\sum\limits_{i=1}^{a}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)}^{2}+\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{i,\cdot}\right)}^{2}+2\sum\limits_{i=1}^{a}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)\sum\limits_{j=1}^{n}\left(y_{i,j}-\overline{y}_{i,\cdot}\right)}\notag\\ &={n}\sum\limits_{i=1}^{a}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)}^{2}+\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{i,\cdot}\right)}^{2}+2{\sum\limits_{i=1}^{a}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)\left[\sum\limits_{j=1}^{n}{y_{i,j}}-\sum\limits_{j=1}^{n}{\overline{y}_{i,\cdot}}\right]}}\notag\\ &={n}\sum\limits_{i=1}^{a}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)}^{2}+\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{i,\cdot}\right)}^{2}+2{\sum\limits_{i=1}^{a}\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)\left[\sum\limits_{j=1}^{n}{y_{i,j}}-{n}{\frac{\sum\limits_{j=1}^{n}{y}_{i,j}}{n}}\right]}\notag\\ &={n}\sum\limits_{i=1}^{a}{\left(\overline{y}_{i,\cdot}-\overline{y}_{\cdot,\cdot}\right)}^{2}+\sum\limits_{i=1}^{a}\sum\limits_{j=1}^{n}{\left(y_{i,j}-\overline{y}_{i,\cdot}\right)}^{2}\notag\\ {SC}_{total}&={SC}_{tratamientos}+{SC}_{error}\notag \end{align} \]

13.2 Tabla de análisis de varianza (ANOVA)

Fuente de variación Suma de cuadrados Grados de libertad Cuadrados medios (o varianzas) Estadístico de prueba
Tratamientos \({SC}_{tratamientos}\) \(a-1\) \({CM}_{tratamientos}=\frac{{SC}_{tratamientos}}{a-1}\) \({F}_{0}=\frac{{CM}_{tratamientos}}{{CM}_{error}}\)
Error \({SC}_{error}\) \(N-a\) \({CM}_{error}=\frac{{SC}_{error}}{N-a}\)
Total \({SC}_{total}\) \(N-1\) \({CM}_{total}=\frac{{SC}_{total}}{N-1}\)

14 Comparaciones entre medias de tratamientos

Una vez se determina la existencia de diferencias entre los tratamientos del experimento, el interés se centra en cual de ellos tiene el mejor rendimiento; una solución es comparar las medias por pares usando una prueba estadística como la t de Student, pero al hacerlo así se produce un aumento del error tipo I que se quiere admitir y como alternativa surgen las pruebas de comparaciones múltiples que corrigen el error para conseguir que no sobrepase el nivel de significancia establecido para lo cual se deben probar hipótesis de la forma:

\[ \begin{align} {H}_{0}:{\mu}_{i}={\mu}_{j}\text{ vs. }{H}_{1}:{\mu}_{i}\neq{\mu}_{j}\notag \end{align} \]

Algunos de los procedimientos más usados para probar la hipótesis anterior son: el test de Bonferroni, el Least Significant Difference (o LSD) de Fisher, la prueba de Diferencia Significativa Honesta de Tukey (DSH), la prueba del Rango múltiple de Duncan, la prueba de Dunnett, la prueba de Scheffé y la prueba de Student-Neuman-Keuls.

  • Prueba de Bonferroni: Propone la construcci?n de intervalos de confianza para todos los pares de medias posibles y rechazar su igualdad cuando el correspondiente intervalo no contenga al cero. El nivel de significancia globa resultante ser? a los sumo \(\alpha\), en donde cada intervalo para cada una de las \(\frac{a\left(a-1\right)}{2}\) comparaciones posibles es \({\alpha}^{*}=\frac{\alpha}{\frac{a\left(a-1\right)}{2}}\)
    • Sistema de hipótesis: \({H}_{0}:{\mu}_{i}={\mu}_{j}\text{ vs. }{H}_{1}:{\mu}_{i}\neq{\mu}_{j}\)
    • Estadístico de prueba: \(t=\frac{\bar{y}_{i,\cdot}-\bar{y}_{j,\cdot}}{\sqrt{{CM}_{error}\left[{\frac{1}{{n}_{i}}}+{\frac{1}{{n}_{j}}}\right]}}\)
    • Regla de decisión: \(\left|t\right| > {t}_{(1-{\alpha}^{*},{gl}_{error})}\) o se rechaza la hip+otesis nula \({H}_{0}\) en favor de la alternativa \({H}_{1}\) a un nivel de significancia \({\alpha}\) cuando el estadístico de prueba calculado exceda el percentil \({\alpha}^{*}=\) de una distribución \(t\) con los mismos grados de libertad del error.
  • Prueba LSD de Fisher: Se basa en un test de la t de Student. Utiliza el ANOVA para crear intervalos de confianza para todas las diferencias en parejas entre las medias de los niveles de los factores, controlando al mismo tiempo la tasa de error individual en un nivel \(\alpha\) especificado.
    • Sistema de hipótesis: \({H}_{0}:{\mu}_{i}={\mu}_{j}\text{ vs. }{H}_{1}:{\mu}_{i}\neq{\mu}_{j}\)
    • Estadístico de prueba: \(t=\frac{\bar{y}_{i,\cdot}-\bar{y}_{j,\cdot}}{\sqrt{{CM}_{error}\left[{\frac{1}{{n}_{i}}}+{\frac{1}{{n}_{j}}}\right]}}\)
    • Regla de decisión: \(\left|t\right| > {t}_{(1-\frac{\alpha}{2},{gl}_{error})}\) o se rechaza la hipótesis nula \({H}_{0}\) en favor de la alternativa \({H}_{1}\) a un nivel de significancia \({\alpha}\) cuando el estad?stico de prueba calculado exceda el percentil \(\frac{{\alpha}}{2}\) de una distribuci?n \(t\) con los mismos grados de libertad del error.
  • *Prueba HSD de Tukey: Este método, de Tukey, se utiliza en ANOVA para crear intervalos de confianza para todas las diferencias en parejas entre las medias de los niveles de los factores mientras controla la tasa de error por familia en un nivel especificado. Esta basado en la distribución del rango estudentizado; que es la distribución que sigue la diferencia del máximo y del mínimo de las diferencias entre la media muestral y la media poblacional de \(a\) variables normales \(N(0, 1)\) independientes e idénticamente distribuidas.
    • Sistema de hipótesis: \({H}_{0}:{\mu}_{i}={\mu}_{j}\text{ vs. }{H}_{1}:{\mu}_{i}\neq{\mu}_{j}\)
    • Estadístico de prueba: \(q=\frac{\bar{y}_{i,\cdot}-\bar{y}_{j,\cdot}}{\sqrt{\frac{{CM}_{error}}{2}\left[{\frac{1}{{n}_{i}}}+{\frac{1}{{n}_{j}}}\right]}}\)
    • Regla de decisión: \(\left|q\right| > {q}_{(1-\frac{\alpha}{2},p,{gl}_{error})}\) o se rechaza la hipótesis nula \({H}_{0}\) en favor de la alternativa \({H}_{1}\) a un nivel de significancia \({\alpha}\) cuando el estadístico de prueba calculado exceda el percentil \(\frac{{\alpha}}{2}\) de una distribución \(Q\) de Tukey con grados de libertad identicos al del error para una comparación que cubre \(p\) tratamientos entre los que van a ser comparados, incluyéndolos.
  • Prueba de Duncan: Fue desarrollado por primera vez por Duncan en 1951 pero posteriormente él mismo modificó su primer m?todo generando el que ahora se denomina Nuevo método de Rango Múltiple de Duncan. Esta prueba no requiere de una prueba previa de F, como sucede con la DMS o sea que aún sin ser significativa la prueba F puede llevarse a cabo y se basa en la distribución de los rangos estudentizados; parte del ordenamiento de los promedios de los tratamientos y se basa en la idea general de que el estadístico de prueba depende de la cantidad de los \(p\) tratamientos comprendidos entre aquellos a ser contrastados.
    • Sistema de hipótesis: \({H}_{0}:{\mu}_{i}={\mu}_{j}\text{ vs. }{H}_{1}:{\mu}_{i}\neq{\mu}_{j}\)
    • Estadístico de prueba: \(r=\frac{\bar{y}_{i,\cdot}-\bar{y}_{j,\cdot}}{\sqrt{\frac{{CM}_{error}}{{n}_{h}}}}\) en donde \({n}_{h}=\frac{a}{\sum\limits_{i=1}^{a}{\frac{1}{{n}_{i}}}}\) es la media armónica de los \({n}_{i}\) tamaños de las réplicas para cada uno de los \(a\) tratamientos \(i=1,2,,a\)
    • Regla de decisión: \(\left|r\right| > {r}_{(1-\frac{\alpha}{2},p,{gl}_{error})}\) o se rechaza la hipótesis nula \({H}_{0}\) en favor de la alternativa \({H}_{1}\) a un nivel de significancia \({\alpha}\) cuando el estadístico de prueba calculado exceda el percentil \(\frac{{\alpha}}{2}\) de una distribución de Duncan con los mismos grados de libertad del error y que cubre los \(p\) tratamientos entre las dos medias comparadas.
  • Prueba de Scheffé: Puede usarse para examinar todas las combinaciones lineales de grupos de medias posibles, y hace uso de las distribución F, no sólo las comparaciones por parejas, pero usando como error típico el valor de la varianza residual o intragrupos obtenida en el análisis de la varianza; esta prueba es la más flexible pero también la de menor poder estadístico.
    • Sistema de hipótesis: \({H}_{0}:{\mu}_{i}={\mu}_{j}\text{ vs. }{H}_{1}:{\mu}_{i}\neq{\mu}_{j}\)
    • Estadístico de prueba: \(f=\frac{\left({\bar{y}_{i,\cdot}-\bar{y}_{j,\cdot}}\right)^{2}}{{CM}_{error}\left[{\frac{1}{{n}_{i}}}+{\frac{1}{{n}_{j}}}\right]}\)
    • Regla de decisión: \(\left|f\right| > {F}_{(1-\frac{\alpha}{2},{gl}_{tratamientos},{gl}_{error})}\) o se rechaza la hipótesis nula \({H}_{0}\) en favor de la alternativa \({H}_{1}\) a un nivel de significancia \({\alpha}\) cuando el estadístico de prueba calculado exceda el percentil \(\frac{{\alpha}}{2}\) de una distribución \(F\) con los mismos grados de libertad de los tratamientos en el numerador y los mismos grados de libertad del error en el denominador.
  • Prueba de Newman Keuls: Hace uso de un umbral móvil basándose en el n?mero de medias implicadas en el recorrido de su resta comparada pero con una diferencia; el nivel de significancia permanece, por lo general, invariable, no se aumenta como con en el Test de Duncan; lo que lo convierte en una prueba menos potente pero más conservadora.

15 Determinación del tamaño de la muestra \(\mathbf{n}\)

La determinación de un tamaño de muestra esta estrechamente ligada a la finalidad que tenga el estudio

  • En investigaciones por muestreo probabilístico, el objetivo final es calcular estimaciones con el menor error de muestreo posible, luego el tamaño de muestra deberá ser tal que logre minimizar el error de muestreo o lo que es lo mismo, minimizar la longitud del intervalo de confianza a construirse.
  • En diseño de experimentos el objetivo es probar la hipótesis de igualdad de los tratamientos luego el tamaño de muestra está enfocado en minimizar el error de tipo II (o no rechazar la hipótesis nula \({H}_{0}\) cuando esta es falsa) presente en la prueba, o lo que es lo mismo, aumentar la potencia del estadístico de prueba que es utilizado.

15.1 Tipos de error en diseño experimental

Una vez realizado el contraste de hipótesis, se habrá optado por una de las dos hipótesis, la hipótesis nula o base \(H_{0}\) o la hipótesis alternativa \(H_{1}\), y la decisión escogida coincidirá o no con la que en realidad es cierta. Se pueden dar los cuatro casos que se exponen en el siguiente cuadro:

\(H_{0}\) es cierta \(H_{0}\) es falsa
No se rechaza \(H_{0}\) No hay error (verdadero negativo) Error de tipo II (\(\beta\) o falso negativo)
Se rechaza \(H_{0}\) Error de tipo I (\(\alpha\) o falso positivo) No hay error (verdadero positivo)

15.1.1 Potencia de la prueba

En este caso, se denomina Potencia del contraste al valor \(1-\beta\), esto es, a la probabilidad de rechazar \({H}_{0}\) cuando esta es falsa

\[ \begin{equation} p\left(Rechazar\ {H}_{0} | {H}_{0}\ es\ falsa\right)=1-\beta \notag \end{equation} \]

15.1.1.1 Hipótesis sobre la media poblacional \({\mu}_{x}\)

  • Sistema de hipótesis: \({H}_{0}:{\mu}_{x}\leq{\mu}_{0}\) vs. \({H}_{1}:{\mu}_{x}>{\mu}_{0}\)
    • Estadístico de prueba: \({t}=\frac{{\bar{x}}-{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}\) cuando se desconoce la varianza poblacional \({\sigma}_{x}^{2}\)
    • Función de potencia: \(\beta\left({\mu}_{x}\right)=P\left(Rechazar\ {H}_{0}\right)\)

\[ \begin{align} \beta\left({\mu}_{x}\right)&=P\left(\frac{{\bar{x}}-{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}>{t}_{(1-\alpha,n-1)}\right)\notag\\ &=P\left(\frac{{\bar{x}}}{\frac{{s}}{{\sqrt{n}}}}-\frac{{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}>{t}_{(1-\alpha,n-1)}\right)\notag\\ &=P\left(\frac{{\bar{x}}}{\frac{{s}}{{\sqrt{n}}}}>{t}_{(1-\alpha,n-1)}+\frac{{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}\right)\notag\\ &=P\left(\frac{{\bar{x}}}{\frac{{s}}{{\sqrt{n}}}}-\frac{{\mu}}{\frac{{s}}{{\sqrt{n}}}}>{t}_{(1-\alpha,n-1)}+\frac{{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}-\frac{{\mu}}{\frac{{s}}{{\sqrt{n}}}}\right)\notag\\ &=P\left(\frac{{\bar{x}-{\mu}}}{\frac{{s}}{{\sqrt{n}}}}>{t}_{(1-\alpha,n-1)}+\frac{{\mu}_{0}-{\mu}}{\frac{{s}}{{\sqrt{n}}}}\right)\notag \end{align} \]

  • Regla de decisión: \(t > {t}_{(1-\alpha,n-1)}+\frac{\sqrt{n}}{{s}}\left({{\mu}_{0}-{\mu}_{x}}\right)\) o se rechaza la hipótesis nula \({H}_{0}\) en favor de la alternativa \({H}_{1}\) a un nivel de significancia \({\alpha}\) cuando el estadístico de prueba calculado exceda el percentil \(1-{\alpha}\) de una distribución \(t\) con \(n-1\) grados de libertad más la cantidad \(\frac{\sqrt{n}}{{s}}\left({{\mu}_{0}-{\mu}_{x}}\right)\); si dicha cantidad es cero, se tiene que \({H}_{0}:{\mu}_{x}\leq{\mu}_{0}\) es cierta.
  • Sistema de hipótesis: \({H}_{0}:{\mu}_{x}\geq{\mu}_{0}\) vs. \({H}_{1}:{\mu}_{x}<{\mu}_{0}\)
    • Estadístico de prueba: \({t}=\frac{{\bar{x}}-{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}\) cuando se desconoce la varianza poblacional \({\sigma}_{x}^{2}\)
    • Función de potencia: \(\beta\left({\mu}_{x}\right)=P\left(Rechazar\ {H}_{0}\right)\)

\[ \begin{align} \beta\left({\mu}_{x}\right)&=P\left(\frac{{\bar{x}}-{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}<{t}_{(\alpha,n-1)}\right)\notag\\ &=P\left(\frac{{\bar{x}}}{\frac{{s}}{{\sqrt{n}}}}-\frac{{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}<{t}_{(\alpha,n-1)}\right)\notag\\ &=P\left(\frac{{\bar{x}}}{\frac{{s}}{{\sqrt{n}}}}<{t}_{(\alpha,n-1)}+\frac{{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}\right)\notag\\ &=P\left(\frac{{\bar{x}}}{\frac{{s}}{{\sqrt{n}}}}-\frac{{\mu}}{\frac{{s}}{{\sqrt{n}}}}<{t}_{(\alpha,n-1)}+\frac{{\mu}_{0}}{\frac{{s}}{{\sqrt{n}}}}-\frac{{\mu}}{\frac{{s}}{{\sqrt{n}}}}\right)\notag\\ &=P\left(\frac{{\bar{x}-{\mu}}}{\frac{{s}}{{\sqrt{n}}}}<{t}_{(\alpha,n-1)}+\frac{{\mu}_{0}-{\mu}}{\frac{{s}}{{\sqrt{n}}}}\right)\notag \end{align} \]

  • Regla de decisión: \(t < {t}_{(\alpha,n-1)}+\frac{\sqrt{n}}{{s}}\left({{\mu}_{0}-{\mu}_{x}}\right)\) o se rechaza la hipótesis nula \({H}_{0}\) en favor de la alternativa \({H}_{1}\) a un nivel de significancia \({\alpha}\) cuando el percentil \({\alpha}\) de una distribución \(t\) con \(n-1\) grados de libertad más la cantidad \(\frac{\sqrt{n}}{{s}}\left({{\mu}_{0}-{\mu}_{x}}\right)\) exceda el estadístico de prueba calculado; si la anteriormente mencionada cantidad es cero, se tiene que \({H}_{0}:{\mu}_{x}\geq{\mu}_{0}\) es cierta.

15.2 ¿Cómo aumentar la potencia de la prueba?

La potencia de cualquier test estadístico esta ligada al tamaño de muestra utilizado, la pregunta crucial no es ¿cómo aumento la potencia? sino ¿hasta dónde aumento el tamaño de muestra?. Para responder a esta pregunta se analiza la potencia de la prueba \(F\) del análisis de varianza (o ANOVA).

El estadístico de prueba es el siguiente:

\[ \begin{equation} {F}=\frac{{CM}_{tratamientos}}{{CM}_{error}}\sim{F}_{{gl}_{tratamientos},{gl}_{error}} \notag \end{equation} \]

El cual bajo la hipótesis alternativa \(H_1\), sigue una distribución F no central

15.2.0.1 Distribución F no central

15.2.0.1.1 ¿De donde viene la distribución \(F\) no central?

Dadas dos variables aleatorias independientes \(X\) e \(Y\) donde \(X\) sigue una distribución \(\chi_{{\nu}_{1}}^{2}\) no central de \({\nu}_{1}\) grados de libertad y parámetro de no centralidad \(\lambda\), \(Y\) sigue una distribución \(\chi_{{\nu}_{2}}^{2}\) no central de \({\nu}_{2}\) grados de libertad entonces el cociente:

\[ \begin{equation} {F}^{'}=\frac{\frac{X}{{\nu}_{1}}}{\frac{Y}{{\nu}_{2}}}\ \text{sigue una distribuci?n $F$ no central de par?metros $\left({\nu}_{1} ,{\nu}_{1}, {\lambda}\right)$} \notag \end{equation} \]

Por fortuna, esta distribución de tres parámetros \(\left({\nu}_{1} ,{\nu}_{1}, {\lambda}\right)\) se encuentra tabulada en R bajo las mismas funciones que la \(F\) central añadiendo la opción \(ncp=\).

15.2.0.1.2 ¿De donde viene la distribución \({\chi}^{2}\) no central?
# whatever you want to plot goes here (one plot at a time!)
par(mfrow=c(1,1), mar=c(4,4,1,1)+.2)
x <- seq(0,12,0.01)
# try different degrees of freedom
ncp <- c(1, 3, 5, 15)
# set up colours and labels for the functions and plot legend
colors <- c("red", "blue", "darkgreen", "gold", "black")
labels <- c("ncp=1", "ncp=3", "ncp=5", "ncp=15", "F central")
# plot Z first
plot(x, df(x, df1=5, df2=3, ncp=0, log = FALSE), type="l", lty=2, xlab="",
     ylab="", main="")
# add lines representing t-distribution
for (i in 1:4){
  lines(x, df(x, df1=5-1, df2=5*(5-1), ncp[i], log = FALSE), lwd=2, col=colors[i])
}
# add legend
legend("topright", title="Distribuci?n F",
       labels, lwd=2, lty=c(1, 1, 1, 1, 2), col=colors)

15.2.0.1.3 Código en R

Para calcular el tamaño de muestra se utiliza un proceso inverso, suponiendo que se conoce y calculando la potencia alcanzada. La idea es entonces, construir una tabla que describa la potencia alcanzada para diferentes tamaños de muestra y seleccionar el tamaño asociado a una potencia adecuada. La siguiente función de R permite agilizar los cálculos necesarios:

funcion.de.potencia=function(n,suma,a,CMerror,alpha)
{
gl.tratamientos=a-1
gl.error=a*(n-1)
lambda=n*suma/(a*CMerror)
f0=qf(alpha, a-1, gl.error, lower.tail = F)
potencia=pf(f0, a-1, a*(n-1), ncp=lambda, lower.tail = F)
potencia
}

Para los datos del ejemplo del algodón (ver libro de Montgomery) se tiene lo siguiente: \(a = 5\), \(\tau_1 = -5.24\), \(\tau_2 = 0.36\), \(\tau_3 = 2.56\), \(\tau_4 = 6.56\), \(\tau_5 = -4.24\), \(\sum_{i=1}^{a}\tau_i^2 = 95.152\), \(CMerror = 8.06\), \(\alpha = 0.01\) y con ayuda de la función anterior se puede construir la siguiente tabla:

funcion.de.potencia(n=5,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.3987637
funcion.de.potencia(n=6,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.5378791
funcion.de.potencia(n=7,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.6606122
funcion.de.potencia(n=8,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.7605935
funcion.de.potencia(n=9,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.8370501
funcion.de.potencia(n=10,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.8925646
funcion.de.potencia(n=11,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.9311568
funcion.de.potencia(n=12,suma=95.152,a=5,CMerror=8.06,alpha=0.01)
## [1] 0.957004
set.seed(7638)
f <- factor( rep( c(35, 40, 45 ), each = 4))
fac <- sample( f, 12 )
eu <- 1:12
plan <- data.frame( loaf=eu, time=fac )
#write.csv(plan, file = "C:/Users/User/Documents/MarioGregorioSaavedra/UniversidadUMB/Segundo semestre de 2018/DisenoDeExperimentos/BaseDeDatosClase/Plan.csv", row.names = FALSE)
#library(daewr)
#data(bread)
#bread <- read.csv("C:/Users/User/Documents/MarioGregorioSaavedra/UniversidadUMB/Segundo semestre de 2018/DisenoDeExperimentos/BaseDeDatosClase/Plan.csv")

<<echo=TRUE>>=

@

Por ejemplo, en un experimento para determinar el efecto del tiempo de subida en la altura de la masa de pan, un lote homog?neo de masa de pan se dividir?a en \(n\) sartenes con la misma cantidad de masa en cada uno. Las bandejas de masa se dividir?an aleatoriamente en t grupos. Cada grupo podr?a levantarse por un tiempo ?nico, y la altura de la masa aumentada se medir?a y registrar?a para cada barra. El factor de tratamiento ser?a el tiempo de subida, la unidad experimental ser?a una barra de pan individual, y la respuesta ser?a la altura medida

<<echo=TRUE>>= library(daewr) data(bread) mod0 <- lm( height ~ time, data = bread) summary(mod0) @

<<echo=TRUE>>= library(gmodels) fit.contrast( mod0, “time”, c(1, -1,0) ) @

<<echo=TRUE>>= mod1 <- aov( height ~ time, data = bread ) summary(mod1) @