El cálculo del tamaño muestral es una etapa clave en el diseño experimental, ya que permite determinar cuántas réplicas son necesarias por tratamiento para garantizar que los resultados del estudio sean estadísticamente significativos y tengan suficiente potencia para detectar efectos relevantes. Dependiendo del enfoque adoptado, puede buscarse minimizar la varianza de un estimador, maximizar la eficiencia bajo restricciones presupuestarias o garantizar la detección de diferencias mínimas entre tratamientos con un nivel de confianza preestablecido.
A lo largo del desarrollo de esta aplicación, también se construyó una librería en R (dexp)con el objetivo de poner a disposición de la comunidad académica y profesional las funciones utilizadas en los cálculos. Esta librería permite aplicar los métodos implementados sin necesidad de interactuar con la interfaz gráfica de la app, siendo especialmente útil para usuarios que prefieren trabajar desde scripts reproducibles o integrarlos a otros proyectos estadísticos en R.
Cabe destacar que, en la aplicación, algunos parámetros avanzados como el número de iteraciones, la precisión de convergencia en algoritmos iterativos utilizados para el cálculo de la potencia y otros pármétros necesarios como el K en HHM no se muestran directamente en la interfaz para facilitar la usabilidad. Sin embargo, estos parámetros están disponibles en las funciones de la librería subyacente, lo cual ofrece a los usuarios más experimentados la posibilidad de ajustar con mayor precisión los métodos empleados, explorar su comportamiento y realizar estudios de sensibilidad.
A continuación se presentan distintos métodos para la determinación del tamaño muestral, adaptados a escenarios con o sin costos variables por tratamiento, así como modelos con componentes de varianza y métodos basados en pruebas post-hoc.
Asumiendo que los costos por tratamiento (\(c_i > 0\)) son variables, bajo la restricción:
\[ \sum_{i=1}^t c_i r_i = C \quad \text{(Restricción presupuestaria)} \]
y considerando que:
\[ Var(\text{MELI}(L)) = \sum_{i=1}^t \frac{\lambda_i^2 \sigma_i^2}{r_i} \quad \text{(Ecuación 5.25)} \]
donde \(L = \sum_{i=1}^t \lambda_i \mu_i\) y
\[ \text{MELI}(L) = \sum_{i=1}^t \lambda_i \bar{y}_i \quad \text{(Ecuación 5.26)} \]
Para minimizar \(Var(\text{MELI}(L))\) sujeto a la restricción presupuestaria, construimos el lagrangiano:
\[ Q = \sum_{i=1}^t \frac{\lambda_i^2 \sigma_i^2}{r_i} + \phi \left( \sum_{i=1}^t c_i r_i - C \right) \quad \text{(Ecuación 5.27)} \]
Al resolver lo anterior, obtenemos:
\[ r_i = \frac{|\lambda_i| \sigma_i}{\sqrt{\phi c_i}} \quad \text{(Ecuación 5.28)} \]
donde el multiplicador de Lagrange es:
\[ \phi = \frac{\left( \sum_{i=1}^t |\lambda_i| \sigma_i \sqrt{c_i} \right)^2}{C^2} \]
Recomendación: Los coeficientes \(\lambda_i\) deben expresarse como fracciones para simplificar el cálculo de \(r_i\).
Si en lugar de optimizar con costos, asignamos las observaciones de forma proporcional a las desviaciones estándar (con \(n\) fijo):
\[ \tilde{r}_{i} = \frac{n \sigma_i}{\sum_{s=1}^t \sigma_s}; \quad i = 1, \dots, t \quad \text{(Ecuación 5.29)} \]
Interpretación: Los tratamientos con mayor variabilidad (\(\sigma_i\)) reciben más réplicas.
Supongamos que un agricultor tiene los siguientes datos referentes a la producción en toneladas por hectárea de cuatro variedades de caña de azúcar:
Se observa que hay una proporcionalidad en las desviaciones estándar, entonces por (5.29) los tamaños de muestra adecuados para cada variedad serían:
\[ \tilde{r}_1=\frac{(5*4)*(6.27)}{6.27+ 9.57+ 12+ 3.32}= 4.0243\approx4 \]
\[ \tilde{r}_2=\frac{(5*4)*(9.57)}{6.27+ 9.57+ 12+ 3.32}= 6.1424\approx6 \]
\[ \tilde{r}_3=\frac{(5*4)*(12)}{6.27+ 9.57+ 12+ 3.32}= 7.7021\approx8 \]
\[ \tilde{r}_4=\frac{(5*4)*(3.32)}{6.27+ 9.57+ 12+ 3.32}= 2.1309\approx2 \]
Las réplicas asignadas por cada uno de los tratamientos son \(4,6,8,2\) respectivamente.
Asumiendo que los costos por tratamiento (\(c_i > 0\)) son variables, bajo la restricción:
\[ \sum_{i=1}^t c_i r_i = C \quad \text{(Restricción presupuestaria)} \]
y considerando que:
\[ Var(\text{MELI}(L)) = \sum_{i=1}^t \frac{\lambda_i^2 \sigma_i^2}{r_i} \quad \text{(Ecuación 5.25)} \]
donde \(L = \sum_{i=1}^t \lambda_i \mu_i\) y
\[ \text{MELI}(L) = \sum_{i=1}^t \lambda_i \bar{y}_i \quad \text{(Ecuación 5.26)} \]
Para minimizar \(Var(\text{MELI}(L))\) sujeto a la restricción presupuestaria, construimos el lagrangiano:
\[ Q = \sum_{i=1}^t \frac{\lambda_i^2 \sigma_i^2}{r_i} + \phi \left( \sum_{i=1}^t c_i r_i - C \right) \quad \text{(Ecuación 5.27)} \]
Al resolver lo anterior, obtenemos:
\[ r_i = \frac{|\lambda_i| \sigma_i}{\sqrt{\phi c_i}} \quad \text{(Ecuación 5.28)} \]
donde el multiplicador de Lagrange es:
\[ \phi = \frac{\left( \sum_{i=1}^t |\lambda_i| \sigma_i \sqrt{c_i} \right)^2}{C^2} \]
Recomendación: Los coeficientes \(\lambda_i\) deben expresarse como fracciones para simplificar el cálculo de \(r_i\).
Supongamos que un agricultor tiene los siguientes datos referentes a la producción en toneladas por hectárea de cuatro variedades de caña de azúcar y sus respectivos costos:
Se observa que hay tenemos un costo por cada tratamiento y un presupuesto total, entonces por (5.28) los tamaños de muestra adecuados para cada variedad serían:
Iniciando por el calculo de \(\Phi\)
\[ \Phi= \sqrt{\frac{\left(\left(\frac{1}{4}*6.27*\sqrt{1000}\right)+\left(\frac{1}{4}*9.57*\sqrt{200}\right)+\left(\frac{1}{4}*12*\sqrt{700}\right)+\left(\frac{1}{4}*3.32*\sqrt{1100}\right)\right)^2}{50000^2}}=1.448629\times10^{-05} \]
\[ r_1=\frac{\frac{1}{4}*6.27}{\sqrt{1.448629\times10^{-05}*1000}}=13.0235\approx13 \]
\[ r_2=\frac{\frac{1}{4}*9.57}{\sqrt{1.448629\times10^{-05}*200}}=44.4486\approx44 \]
\[ r_3=\frac{\frac{1}{4}*12}{\sqrt{1.448629\times10^{-05}*700}}=29.7915\approx30 \]
\[ r_4=\frac{\frac{1}{4}*3.32}{\sqrt{1.448629\times10^{-05}*1100}}=6.5751\approx7 \]
Las réplicas asignadas por cada uno de los tratamientos son \(13,44,30,7\) respectivamente.
En el modelo de componentes de varianza tanto el número de tratamientos \(t\) como el número de réplicas \(r\) son variables y sus estimaciones están ligadas con el control de dichas varianzas. Un criterio usual para elegir los valores de \(r\) y \(t\) es el de minimizar los costos en la estimación de la media \(\mu\). Una medida de la cantidad de información disponible para estimar \(\mu\) es la varianza de la media muestral dada por:
\[ v(\bar{y}..) = \frac{\sigma^2}{rt} + \frac{\sigma_A^2}{t} \]
En el caso de un diseño C.A. (Completamente Aleatorizado).
El problema se reduce a encontrar los valores de \(r\) y \(t\) que minimicen la función de costos dada por:
\[ C = C_1 t + C_2 t r \]
para una varianza \(v(\bar{y}..)\) fija, donde \(C_1\) es el costo por unidad de tratamiento y \(C_2\) es el costo por unidad experimental. La solución matemática es, según Mendenhall (1968):
\[ t = \frac{1}{v(\bar{y}..)} \left( \hat{\sigma}_A^2 + \sqrt{\frac{\hat{\sigma}_A^2\hat\sigma^2C^2}{C^1}} \right) \]
y
\[ r = \sqrt{\frac{\hat\sigma^2 C_1}{\hat{\sigma}_A^2 C_2}} \]
Un estudio genético en ganado, consistió en seleccionar aleatoriamente varios machos (toros) apareados con grupos separados de hembras. Cuando nacieron los terneros, se midieron los pesos iniciales como medida en un estudio de pesos hereditarios (estudios de progene). En la tabla a continuación se presentan los pesos al nacer de los terneros de cada uno de cinco grupos de apareamiento.
Obteniendo la tabla ANOVA
Df Sum Sq Mean Sq F value Pr(>F)
Toro 4 6070 1517.6 3.646 0.0155 *
Residuals 30 12486 416.2
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
De la anterior tabal pondemos obtener los valores de \(\hat\sigma_e^2\) y de \(\hat\sigma_A^2\)
\[ \hat\sigma_e^2=\text{CME}=416.2 \]
\[ \hat\sigma_A^2=\frac{\text{CMA}-\text{CME}}{r_0}=\frac{(1517.6-416.2)}{6.97}=158.02 \]
Donde,
\[ r_0=\frac{\left(35-\frac{\left(8^2+6^2+6^2+7^2+8^2\right)}{35}\right)}{4}=6.97 \]
Suponiendo una varianza máxima \(V(\bar{y}_{..})=43.49\), \(C1 = 150000\) y \(C2 = 50000\), se encuentra que:
\[ t = \frac{1}{43.49} \left( 158.015 + \sqrt{\frac{(158.015)(416.21409)(50000)}{150000}} \right)=7.04 \]
y
\[ r = \sqrt{\frac{(416.21409) (150000)}{(158.015) (50000)}}=3.35 \]
Para una varianza de la media muestral no mayor de 43,49, deberían seleccionarse 7 toros y 3 terneros por cada toro, asumiendo que el costo experimental de cada toro es de \(150000\) y el de cada ternero es de \(50000\).
Ocasionalmente el experimentador no define estimadores de varianza en la forma \(S_1^2\), pero conoce “algo” acerca de los órdenes de magnitud para relacionar la información con los límites superior e inferior de la desviación estándar dentro de las cantidades máximas \(S_1\) y \(df_1\).
Harris, Horvitz & Mood (1948) proponen un procedimiento simple: Primero el experimentador se cuestiona por los límites inferior y superior (\(S_I\), \(S_S\)) de la desviación estándar, suponiendo que él desea estimar 7% y 12% de la media para los límites superior e inferior, y la desviación estándar de la media es 30, entonces \(S_I = (0{,}7)(30) = 2{,}1\) y \(S_S = (0{,}12)(30) = 3{,}6\).
La estimación de la desviación estándar es el promedio de los dos estimadores:
\[ S_1 = \frac{S_I + S_S}{2} = 2{,}85 \]
Para obtener \(df_1\) es necesario que el investigador tenga alguna “confianza” sobre los estimadores. Se calculan los valores de \(\sqrt{\chi^2_{(0{,}1)} / \chi^2_{(0{,}9)}}\) para varios grados de libertad, el valor más cercano al cociente \(S_S / S_I\) se considera como los grados de libertad asociados con \(S_1\) (\(df_1\)). Para el ejemplo \(S_S / S_I = 1{,}72\) y de la tabla \(\sqrt{\chi^2_{(12;0{,}1)} / \chi^2_{(12;0{,}9)}} = 1{,}72\), de donde se asume que \(S_1\) tiene asociados 12 grados de libertad, con este valor se estima \(r\).
En este caso usaremos la función calcular_S1_df1 para
hacer el cálculo del ejemplo anterior.
$S1
[1] 2.85
$grados_libertad
[1] 12
$valor_x
[1] 1.715391
$error_relativo
[1] 0.000645021
Así, la desviacón estandar estimada es de 2.85 con 12 grados de libertad. El valor de 1.715391 corresponde al cociente de la raiz cuadrada de las chi-cuadrado de la parte superior y dado que esto fue estimado por medio de simulaciones el error relativo es de 0.0645021%
En arreglos de DCA, a menudo, el investigador está interesado en determinar el número de réplicas que le permitan detectar diferencias significativas entre los tratamientos, es decir, determinar si hay o no evidencia para que con la prueba \(F\) del análisis de varianza se rechace o no la hipótesis nula.
La técnica desarrollada en la teoría estadística para decidir sobre el número de réplicas necesarias en un experimento es el cálculo de la potencia de las pruebas estadísticas de interés. En la prueba \(F\) del ANOVA a una vía, el cálculo directo de la potencia es generalmente complejo, pero se han construido algunas gráficas, llamadas curvas características de operación, que permiten estimar un valor para la probabilidad \(\beta\) o error de tipo II. La potencia \(1 - \beta\) se deduce a partir de esta probabilidad.
Tang desarrolló un procedimiento y preparó las tablas necesarias para determinar el número de réplicas a ser usado en un experimento. Asume que la variación de la componente del error se distribuye en forma normal con media cero y varianza \(\sigma^2\). Para obtener el número adecuado de réplicas, se requiere un buen estimador de \(\sigma^2\) y que la diferencia verdadera del efecto medio de tratamiento \(\alpha_i = \mu_i - \mu\) se especifique.
La sensibilidad de la prueba \(F\), o poder de la prueba, denotado por \(1 - \beta\), donde \(\beta\) es la probabilidad del error tipo II, depende de:
\[ \phi^2_{\beta,\alpha} = \frac{r \sum \alpha_i^2}{t \sigma^2} \tag{5.19} \]
de la distribución \(F\) no central, donde los \(\alpha_i\) son los valores verdaderos del efecto de tratamientos, especificado bajo la hipótesis alterna. En el procedimiento general se especifica \(\alpha\), \(1 - \beta\) y \(\phi/r\) y se formula la pregunta: ¿Cuántas réplicas, \(r\), son necesarias para detectar, con probabilidad \(1 - \beta\), diferencias de tratamientos especificados por \(\phi/r\) si se usa una prueba de tamaño \(\alpha\)?
El número de réplicas en el modelo I se obtiene haciendo uso de las gráficas construidas por Pearson y Hartley, las cuales se encuentran reproducidas en varios textos (aunque con ligeras modificaciones), por ejemplo en Kempthorne (1952), Scheffé (1959), Neter, Wasserman & Kutner (1990) y Montgomery (2003). En este texto se presentan las tablas de este último autor. Las curvas fueron construidas para dar el valor \(\beta\) en la ordenada cuando se proponen valores de un parámetro \(\phi\) sobre la abscisa y se asumen valores conocidos de \(\alpha\), \(\nu_1\) y \(\nu_2\). El parámetro \(\phi_{\beta,\alpha}\) se llama parámetro de no centralidad de la distribución \(F\) y es una medida del grado de desigualdad de los \(\alpha_i\).
En este caso, no se dificulta la especificación de \(\alpha\) y \(\beta\). Usualmente se toma \(\alpha = 0.05\) o \(\alpha = 0.10\) como valores razonables para evaluar el riesgo de cometer el error tipo I.
Un paso más difícil es la escogencia de \(\beta\) o \(1 - \beta\), es decir la probabilidad de detectar diferencias cuando existen. Es razonable tomar \(1 - \beta = 0.80\), aunque depende del problema. La parte más difícil es definir \(\phi / r\) porque representa el verdadero estado de la naturaleza.
Se va a determinar el número de réplicas para un experimento similar al del ejemplo 5.1 suponiendo que la potencia no debe ser inferior a 0.80. Asignando los mismos valores del ejemplo citado a los parámetros, se tiene:
\[ \alpha = 0.05, \quad \nu_1 = t - 1 = 3, \quad \nu_2 = t(r - 1) = 16, \quad \hat{\sigma}^2 = 10.35 \]
\[ \sum_{i=1}^t \hat{D}_i^2 = 1.1342 + 16.2812 + 14.94 + 0.801 = 33.156 \]
Entonces:
\[ \phi^2 = \frac{5 \cdot 33.156}{4 \cdot 10.35} = 4.004 \quad \Rightarrow \quad \phi = 2.001 \]
Según la figura A.1 del apéndice, en la gráfica con \(\nu_1 = 3\) y \(\alpha = 0.05\), se localiza \(\phi = 2.001\), se sube hasta cortar la línea \(\nu_2 = 16\) y se lee la probabilidad \(\beta \approx 0.16\). Por lo tanto, la potencia es \(1 - \beta \approx 0.84\).
Si se quiere una potencia menor, se puede disminuir \(r\). Al suponer \(r = 4\), se calcula \(\phi = 1.79\) y \(\beta \approx 0.21\), por lo tanto la potencia será \(0.79\), que no cumple la condición inicial. Se recomienda tomar 5 réplicas para futuros estudios similares.
En la práctica, cuando no se conocen los parámetros, se debe estimar primero \(\sigma^2\). Si se conocen estudios previos, puede usarse como estimador, de lo contrario, se debe realizar una suposición razonable.
Si fuera posible proponer valores para los \(\alpha_i\), se calcularía como en el ejemplo anterior. Lo más frecuente es no tener esos valores, por lo tanto, se recurre a especificar la diferencia mínima entre los extremos de los tratamientos (el mejor y el peor), es decir, \(\Delta = \alpha_{\max} - \alpha_{\min}\).
Si se asume \(\alpha_{\max} = -\alpha_{\min}\) entonces \(\alpha_{\max} = \frac{\Delta}{2}\), \(\alpha_{\min} = -\frac{\Delta}{2}\) y \(\alpha_i = 0\) para los demás. Así, se tiene:
\[ \Phi^2 = \frac{2r \cdot \Delta^2 / 4}{t \sigma^2} = \frac{r \Delta^2}{2t \sigma^2} \tag{5.20} \]
Como la prueba \(F\) es creciente en función de \(\Phi\), se toma el menor valor de \(\Phi\) para todas las diferencias.
En los casos prácticos, se parte de un valor tentativo de \(r\), se calcula \(\Phi\), se consulta la tabla y se estima si la potencia es la deseada. Si es menor, se incrementa \(r\), si es mayor, se disminuye.
Considere un estudio donde se detecta como significativa una diferencia entre medias igual o mayor de 3 kilogramos, es decir, \(\Delta = 3\). Supóngase que se estimó la varianza en \(\hat{\sigma}^2 = 10.35\). Hay \(t = 4\) tratamientos por comparar y se requiere una potencia de 0.80. Entonces:
\[ \Phi^2 = \frac{9r}{(8)(10.35)} = 0.1087r. \]
Iniciando con \(r = 15\), en la figura A.1 del apéndice con \(\nu_1 = 3\) y \(\alpha = 0{,}05\), se localiza \(\beta = 0{,}20\) y para \(\nu_2 = (4)(14) = 56\) se lee \(\Phi \simeq 1{,}72\). Entonces \(\Phi^2 = 2{,}96\) y el \(r\) despejado es 27.22. Se repite el proceso con \(r = 27\), de modo que:
\[ \Phi = \sqrt{(0.1087)(27)} = 1{,}71 \quad \text{y} \quad \nu_2 = (4)(26) = 104. \]
Estos valores dan una probabilidad \(\beta \simeq 0{,}20\), se concluye que se requieren 27 individuos como mínimo por tratamiento si se desea una potencia de 0.80 para la prueba \(F\) y, asumiendo diferencias de 3 kilogramos o mayores entre medias poblacionales como significativas.
| \(\Delta\) | \(\sigma^2\) | \(1 - \beta\) | \(r\) | \(\Phi\) | \(\beta\) |
|---|---|---|---|---|---|
| 3 | 10.35 | 0.80 | 27 | 1.71 | 0.20 |
| 2 | 10.35 | 0.80 | 61 | 1.72 | 0.20 |
| 3 | 8.50 | 0.80 | 22 | 1.72 | 0.20 |
| 3 | 10.35 | 0.90 | 35 | 1.95 | 0.10 |
| 4 | 8.50 | 0.82 | 14 | 1.81 | 0.18 |
Tabla 5.13. Valores de \(r\) para diferentes valores de los parámetros \(\Delta\), \(\sigma\) y \(1 - \beta\).
Al crecer el número de réplicas \(r\), también crece la potencia. Para una potencia fija, se puede disminuir \(r\) si se aumenta \(\Phi\). Pero el parámetro \(\Phi\) depende básicamente del cociente \(\frac{\Delta}{\sigma}\), el cual puede aumentar ya sea porque la varianza es pequeña o porque la diferencia significativa se asume grande.
Diferencias grandes entre las \(\alpha_i\) son fáciles de detectar con pocos datos. Como no hay mucha precisión en cuanto a la varianza estimada, es aconsejable investigar varios tamaños de muestra dentro de un rango probable de valores de \(\sigma^2\), antes de decidirse por un tamaño definitivo.
Ahora implementaremos la función que hicimos.
library(dexp)
resultado <- encontrar_r_minimo_Potencia(t = 4, rho = 0.5, dif = 3, potencia_objetivo = 0.8, sigma2_ = 10.35)
resultado$r_optimo[1] 22
Este método determina el número de réplicas requerido para obtener significancia en una proporción específica de experimentos, donde diferencias grandes o mayores que algunos valores de \(d\) preestablecidos existen. Se asume que los valores dentro de cada población se distribuyen en forma normal con varianza común para todas las poblaciones, las cuales tienen como estimador \(S_1^2\) y \(df_1\) grados de libertad.
Conociendo los valores de \(S_1^2\), \(df_1\) y \(d\), el número de réplicas requerido, con un nivel \(\alpha\) de significancia, se obtiene a partir de la expresión
\[ r \;=\; 2\,\bigl(df_2 + 1\bigr)\,\Bigl(\frac{K' \,S_1}{d}\Bigr)^2 \]
donde:
Si \(r\) es demasiado pequeño para proporcionar una estimación confiable de \(df_2\), debe emplearse el menor valor posible de \(df_2\).
Los datos de un experimento sobre cantidad de grasa absorbida por 64 buñuelos para diferentes tipos de grasa se muestran en la Tabla 5.15.
| Cantidades de grasa | Medias | 4 | 3 | 2 | 6 | 1 | 5 | 8 |
|---|---|---|---|---|---|---|---|---|
| 7 | 161 | 24 | 21 | 17 | 15 | 11 | 4 | 1 |
| 8 | 162 | 23 | 20 | 16 | 14 | 10 | 3 | — |
| 5 | 165 | 20 | 17 | 13 | 11 | 7 | — | — |
| 1 | 172 | 13 | 16 | 6 | 4 | — | — | — |
| 6 | 176 | 9 | 6 | 2 | — | — | — | — |
| 2 | 178 | 7 | 4 | — | — | — | — | — |
| 3 | 182 | 3 | — | — | — | — | — | — |
Suponga que se encontró \(S_1^2 = 141.6\) con \(df_1 = 40\) grados de libertad. Al asumir que \(d = 20\), \(1-\beta = 80\%\) e incluyendo solamente 6 tratamientos en el experimento, se obtiene
\[ r \;=\; \frac{2\,(141.6)\,(0.322)^2\,(60 + 1)}{400} \;=\; 4.48 \]
Observe que si \(df_2 = 60\), entonces se sobreestima los grados de libertad; en tanto que si \(df_2 = 25\), es decir, subestimando los grados de libertad, se obtiene
\[ r \;=\; \frac{2\,(141.6)\,(0.502)^2\,(25 + 1)}{400} \;=\; 4.64 \]
Por lo tanto, se necesitan 5 réplicas para alcanzar los resultados deseados en este experimento.
Si \(1 - \beta = 0.95\), entonces son necesarias más réplicas.
Ahora implementando nuestra librearía, tenemos:
library(dexp)
resultados <- calcular_r_minimo_HHM(
t = 6,
d = 20,
r_inicial = 3,
S1_sq = 141.6,
df1 = 40,
alpha_ = 0.05,
beta_ = 0.8
)
resultados$r # número estimado de réplicas[1] 5
[1] 0.5348283
[1] 22
Se implemento una función k_tabla_mc la cual nos permite
calcular el K independientemente de los valores de
df1 y df2, es decir, ya la tabla la cual fue calculada
para ciertos valores específicos de grados de libertad ya no es una
limitación.
El método de Tukey para el cálculo del tamaño muestral de las réplicas por tratamiento tiene como objetivo asegurar que, al momento de realizar el diseño experimental, sea posible detectar una diferencia mínima significativa entre los tratamientos en la variable de interés al aplicar comparaciones pareadas mediante pruebas post-hoc.
En otras palabras, si al aplicar estas pruebas no se detecta una diferencia significativa, se debe a que la diferencia establecida previamente como mínima detectable no se logró identificar, lo que está directamente relacionado con el tamaño muestral calculado inicialmente.
Para aplicar esta prueba es necesario contar con información a priori
sobre la varianza del error experimental. Si no se dispone de dicha
información, y por lo tanto tampoco de los grados de libertad asociados,
se procede a estimarla mediante la función
calcular_S1_df1().
Parámetros:
Un intervalo de confianza de \((1 - \alpha) \cdot 100\) de longitud \(\leq 2d\) para la diferencia de cualquier par de medias, cuando se tiene un conjunto de \(t\) tratamientos, se obtiene a partir de la expresión del siguiente proceso:
Si hay \(t\) medias (asociadas con los tratamientos), se hacen comparaciones dos a dos, es decir:
\[ \frac{\bar{Y}_{\max} - \bar{Y}_{\min}}{\sqrt{CME/r}} \sim q_{t;df_2} \]
Sea \(P_0 \leq P\) la longitud del intervalo que cubre todas las diferencias \(\leq 2d\), entonces:
\[ P_0 = P\left(2S q_{1 - \alpha}/\sqrt{r} \leq 2d\right) \]
donde \(S = \sqrt{CME}\) y \(q_{1 - \alpha}\) es el límite en la tabla A.12 del apéndice de rangos studentizados. Desde esta expresión se encuentra que:
\[ P_0 = P\left(S^2 \leq \frac{d^2 r}{q_{(1 - \alpha)}^2}\right) \]
En esta expresión, al dividir por un \(S^2\) previo, \(S_1^2\), para obtener una \(F\), se sigue:
\[ P_0 = P\left(\frac{S^2}{S_1^2} \leq \frac{d^2 r}{q_{(1 - \alpha)}^2 S_1^2}\right) \]
Con \(\frac{S^2}{S_1^2} \sim F(df_2, df_1)\), se obtiene finalmente:
\[ r = F_{(df_2, df_1; 1 - \alpha)} \cdot \frac{q^2_{t; df_2; 1 - \alpha/2}}{d^2} \]
Retomando el ejemplo del libro 5.11, sea \(S_1^2 = 141{,}6\), \(df_1 = 40\) y \(d
= 20\).
Los valores de \(gl_E\) y \(q_{t; df_2; 1 - \alpha}\) dependen del
diseño y de los valores de \(1 -
\beta\).
Si se supone \(S_1\) como en el diseño
completamente aleatorizado con \(r =
6\), \(1 - \beta = 0{,}9\) y
\(df_2 = 30\), entonces:
\[ \begin{align*} gl(\text{Total}) &= 35, \\ gl(\text{Tratamientos}) &= 5, \\ gl(\text{Error}) &= 30. \end{align*} \]
Así, \(F_{(30;40;0{,}10)} = 1{,}54\) y \(q_{(5;30;0{,}10)} = 4{,}30\), donde \(q\) corresponde al valor apropiado en la tabla A.12 de rangos studentizados.
Con estos resultados y de la ecuación (5.24), se obtiene:
\[ r = \frac{(141{,}6)(4{,}30)^2(1{,}54)}{400} = 10{,}08 \]
Para este caso, el estimador es sesgado. Si se desea garantizar que la longitud del intervalo sea \(2A\), entonces de (5.18) se encuentra:
\[ r = \frac{2\sigma^2 t_{1-\alpha}^2 \Gamma^2\left( \frac{r}{2} \right)}{A^2 (r - 1) \Gamma^2\left( \frac{r - 1}{2} \right)} \]
Como el valor de \(df_2\) fue
subestimado, se toma \(r = 9\),
entonces \(df_2 = 48\),
\(q_{(5;48;0{,}90)} = 4{,}2\), \(F_{(48;40;0{,}10)} = 1{,}48\) y \(r = 9{,}2\).
Como el valor de \(r > 9\),
entonces con \(r = 10\), va a ser lo
suficientemente grande para esta propuesta,
se puede obtener un intervalo de confianza con 10
réplicas y el 95 % de confianza, el cual es
mayor que \(2d\) en longitud en el 90 %
de los experimentos.
Ahora vamos a usar la librería que creamos:
$r
[1] 10
$A
[1] 9.488479
$r_i
[1] 9
$A_i
[1] 10.11104
$lista_r
[1] 5 6 7 8 9 10 11 12 13 14 15
$valores_A
[1] 15.081301 13.172866 11.857586 10.878156 10.111039 9.488479 8.969733
[8] 8.528597 8.147330 7.813420 7.517754
$posicion_escogida
[1] 5
El valor r representa el tamaño de réplica calculado
mediante el método de Tukey, siendo A la
diferencia mínima que se desea detectar con dicho tamaño. Por otro lado,
r_i es el tamaño de réplica cuyo valor se aproxima más a
lograr la diferencia mínima requerida, denominada A_i. Las
listas lista_r y valores_A contienen valores
de tamaño de réplica y las correspondientes diferencias mínimas
detectables (A), calculadas tomando como referencia el
valor de r.
Según el método de Tukey, se concluye que para detectar una
diferencia mínima de 20 unidades se necesita un tamaño de réplica de 10.
No obstante, esto implica que la diferencia real podría estar
subestimada, por ejemplo, en un valor como 9.48. Esto puede
interpretarse también como que, al emplear un tamaño de 10 réplicas, el
contraste será más estricto para rechazar la hipótesis nula \(H_0\). En cambio, utilizar el valor
r_i proporciona un enfoque ligeramente más flexible, lo que
puede facilitar la detección de la diferencia deseada con un balance
adecuado entre error tipo I y tipo II.
El cálculo del número de réplicas en un diseño experimental con modelo de efectos aleatorios es fundamental cuando se desea asegurar una potencia estadística adecuada en pruebas ANOVA. En este contexto, el objetivo es determinar cuántas observaciones por tratamiento son necesarias para detectar diferencias significativas entre niveles de un factor aleatorio, considerando la variabilidad inherente del experimento.
Aunque la potencia de la prueba se basa en la distribución F, su determinación puede simplificarse mediante el uso de curvas características de operación (OC curves), que permiten visualizar la probabilidad de cometer errores tipo II (\(\beta\)) en función de diferentes configuraciones del diseño.
Este enfoque es especialmente útil en estudios donde los factores no son controlados directamente sino seleccionados aleatoriamente de una población más amplia (por ejemplo, lotes, sujetos, ubicaciones), y se requiere garantizar que el diseño tenga suficiente sensibilidad para detectar efectos reales entre tratamientos o unidades experimentales.
En el caso del ANOVA de una vía de clasificación:
\[ Y_{ij} = \mu + T_i + \varepsilon_{ij} \]
Nosotros estimábamos a \(T_i\) como si fuera un valor fijo, pero cuando tenemos efectos aleatorios:
\[ \varepsilon_{ij} \sim \mathcal{N}(0, \sigma^2_\varepsilon) \]
Ahora \(T_i\) va a ser aleatorio de individuo a individuo:
\[ T_j \sim \mathcal{N}(0, \sigma^2_T) \]
Así tendremos dos efectos de varianza, entonces la idea se hace grande cuando vemos el diseño completamente al azar desde el punto de vista de los efectos aleatorios, ya no nos va a interesar evaluar la misma hipótesis.
Hipótesis en efectos fijos:
\[ H_0: \; T_1 = T_2 = \dots = T_K = 0 \]
Si no que:
Hipótesis en efectos aleatorios:
\[ H_0: \; \sigma^2_T = 0 \quad \text{(La varianza de los efectos aleatorios sea estadísticamente cero)} \]
El cálculo es el mismo, solo que la hipótesis cambia.
Aclaración:
Que \(T_k = 0 \Rightarrow \sigma^2_T = 0\), pero no al revés.
Es decir, si \(\sigma^2_T = 0\) implica que \(T_k\) son iguales, pero no a cero.
¿Cuándo decidimos usar cuál?
En efectos fijos, los \(T\) decimos
que son parámetros fijos, que se espera que afecten a la variable
dependiente de forma directa.
En cambio, los efectos aleatorios me ayudan para explicar la
variabilidad no explicada de las explicativas (punto de vista
aleatorio).
Ejemplo:
Si se tiene un estudio de diferentes fertilizantes y queremos evaluar el
rendimiento en una cosecha, el investigador está pensando en elegir solo
tres tipos de fertilizante.
Para él, es un valor fijo dado que lo decidió bajo experiencia y quiere
evaluar entre esos tres.
→ Efecto fijo
Ahora, si en el mismo ejercicio se tiene un grupo más amplio de
fertilizantes (20, 30, …, X) y elijo aleatoriamente 3 por medio de un
muestreo, entonces estoy pensando en efectos aleatorios.
En ese caso, me interesa estimar la variabilidad del rendimiento de lo
que estamos midiendo, causado por los diferentes tipos de
fertilizantes.
Y en ese intento, la varianza asociada a los fertilizantes no se ve influenciada por la manera en que se eligen aleatoriamente los fertilizantes que se iban a usar en el estudio.
→ La diferencia de un modelo a otro reside en la concepción del experimento, pero en el contraste de las diferencias, o desde el punto de vista estadístico, es exactamente la misma tanto en efectos fijos como en efectos aleatorios.
Otra diferencia es que en E.F. a mí me interesa comparar niveles específicos, i.e., el fertilizante 1 vs. el 2, se comparan niveles específicos.
En cambio, en E.A. es controlar o evaluar qué tanto podrían cambiar la variabilidad en el rendimiento, o en la variable de respuesta por efecto del tratamiento.
→ Para contrastar el ejercicio se calcula el estadístico \(F\) ya sea visto en E.F. o E.A.:
\[ F = \frac{CM_{Trat}}{CM_{Res}} \]
Una cosa importante a tener en cuenta es que en el numerador de \(F\) hay una combinación entre los \(\sigma^2_T\) (variabilidad de tratamientos)
y \(\sigma^2_\varepsilon\)
(variabilidad del error experimental).
En cambio, en \(CM_{Res}\) solo se
tiene \(\sigma^2_\varepsilon\).
→ Eso sería lo primero.
Ahora el ejercicio para calcular \(CM_{Trat}\) para E.A. es el siguiente:
Suponemos que:
\[ SC_{Tot} = SC_{Trat} + SC_{Res} \]
Sabemos que son chi-cuadrados, entonces:
\[ CM_{Trat} = \frac{SC_{Trat}}{K - 1} \sim \chi^2 \Rightarrow \mathbb{E}(CM_{Trat}) = \sigma^2_\varepsilon + r \cdot \sigma^2_T \]
Donde \(K\) es el número de
tratamientos.
Y para \(CM_{Res}\):
\[ \mathbb{E}(CM_{Res}) = \sigma^2_\varepsilon \]
Al final, va a pasar que la estadística \(F\) bajo la hipótesis nula estará a tener distribución \(F\), pero cuando no estoy bajo elsupuesto de la hipótesis nula, i.e., si \(\sigma^2_T \neq 0\), el resultado de \(F\) va a depender obligatoriamente de \(\sigma^2_T\).
→ Las curvas características de operación (curvas OC) para el
anterior escenario me dicen que a partir de la distribución exacta de la
estadística \(F\), cuando el \(F\) no es centrado o no central, me dice
que va a haber un cambio proporcional entre \(F\) y \(\sigma^2_T\).
Entonces, lo que uno hace es una suerte de cociente:
\[ \rho = \frac{\sigma^2_T}{\sigma^2_\varepsilon} \]
→ Para el ejercicio uno hace lo siguiente:
Simulación de cómo va a ser la potencia.
Hace el cálculo por el ANOVA:
Supongamos que ya tenemos claro el modelo:
\[ y_{ij} = \mu + T_j + \varepsilon_{ij} \]
→ De \(\sigma^2_\varepsilon\) y
\(\beta\) se puede recuperar \(\sigma^2_T\).
\(T_j\) tiene que ser aleatorio,
entonces se simula vía rnorm() al igual que \(\varepsilon_{ij}\):
Se fija el valor de \(\mu\).
Con estas asignaciones generamos un ANOVA:
La potencia de la prueba según \(r\):
Referencia Bibliográfica
Melo M., O. O., López P., L. A., & Melo M., S. E. (2007). Diseño de Experimentos: Métodos y Aplicaciones (1a ed.). Pro-Offset Editorial S.A.. Capítulo 5, pp. 189-207.