Diseño Experimental: Efecto de la Alimentación en Gallinas Ponedoras

Author

Juan José Arteaga, Lorena Negrete, Nahum Sánchez, Laura Sánchez

Introducción

La industria avícola representa uno de los sectores más importantes en la producción de alimentos a nivel mundial, siendo la producción de huevos un componente esencial dentro de esta cadena alimentaria. La eficiencia en los sistemas de producción depende de múltiples factores, entre ellos, la alimentación de las aves. En particular, la frecuencia con la que se suministra el alimento podría incidir directamente en el rendimiento productivo de las gallinas ponedoras.

En este contexto, surge la necesidad de evaluar si el número de veces que se alimenta a las gallinas durante el día influye de manera significativa en la cantidad de huevos producidos.

Situación Problema

En una unidad de producción avícola, un avicultor ha observado variaciones en la producción de huevos entre diferentes lotes de gallinas, a pesar de que todas reciben el mismo tipo de alimento. La única diferencia aparente entre los grupos es la frecuencia con la que se les suministra el alimento diariamente. Esta observación ha generado dudas sobre cuál sería la frecuencia de alimentación más adecuada para maximizar la productividad, sin incurrir en gastos innecesarios ni comprometer la salud de las aves.

Ante esta inquietud, el avicultor decide diseñar un experimento controlado para evaluar el efecto de la frecuencia de alimentación sobre la producción de huevos. Se establecen tres tratamientos: alimentar a las gallinas una vez al día (T1), dos veces al día (T2) y tres veces al día (T3). Durante 10 días se registra la producción de huevos de cada grupo, con el objetivo de determinar si existen diferencias estadísticamente significativas entre los tratamientos.

Este experimento busca proporcionar información confiable que permita tomar decisiones basadas en evidencia respecto a la frecuencia óptima de alimentación, con miras a mejorar la eficiencia y rentabilidad del sistema productivo avícola.. Las observaciones se encuentran en la siguiente tabla:

observaciones T1 T2 T3
1 9 12 15
2 10 13 17
3 8 11 16
4 9 12 18
5 8 14 18
6 9 14 19
7 9 13 17
8 10 11 17
9 9 12 18
10 8 14 19

ANOVA

Planteamiento de Hipótesis

Hipótesis basado en las medias:

\(H_0\): Las medias de producción de huevos son iguales para los tres tratamientos \[H_0: \mu_{1} = \mu_{2} = \mu_{a}\]

\(H_1\): Al menos una de las medias difiere.

\[ H_1: \mu_i \ne \mu_j \text{, para al menos un par } (i,j) \text{ con } i \ne j \]

Hipótesis basado en los efectos:

\(H_0\):Todos los tratamientos tienen el mismo efecto, es decir,.

\[ H_0: \tau_1 = \tau_2 = \ldots = \tau_6 = 0 \]

\(H_1\): Al menos uno de los efectos es distinto de cero.

\[H_1: \tau_i \ne 0 \text{, para al menos un } i\]

Datos y calculos

  • Número de tratamientos (a) = 3.
  • Número de observaciones por tratamiento(n) = 10.
  • Total de observaciones (N) = a × n = 3×10=30.

Suma de Cuadrados (SS)

Suma de cuadrado del tratamiento

\[SS_{\text{Tratamientos}} = \frac{1}{b} \left[ \sum_{i=1}^{a} y_{i.}^2 \right] - \frac{y_{..}^2}{N}\]

Suma de cuadrados del total

\[ SS_{\text{total}} = \left[ \sum_{i=1}^{a} \sum_{j=1}^{n} (y_{ij})^2 \right] - \frac{y..^2}{N}\]

Suma de cuadrados del error

\[ SS_{\text{error}} = SS_{\text{total}} - SS_{\text{tratamientos}} \]

Grados de libertad

Grados de libertad del tratamiento

\[DF_{\text{Tratamientos}} = a-1 \] \[DF_{\text{Tratamientos}} = 3 - 1 = 2\]

Grados de libertad del error

\[DF_{\text{error}}= (N-a)\] \[DF_{\text{error}}= (30-3) = 27\]

Grados de libertad total

\[DF_{\text{total}} = N- 1\] \[DF_{\text{total}} = 30 - 1 = 29\]

Cuadrados medios (MS)

Cuadrados medios de los tratamientos

\[ MS_{\text{tratamientos}} = \frac{SS_{\text{tratamientos}}}{{DF_{\text{tratamientos}}}} \]

Cuadrados medios del error

\[ MS_{\text{erro}} = \frac{SS_{\text{error}}}{{DF_{\text{error}}}} \]

Cuadrados medios del total

\[ MS_{\text{total}} = \frac{SS_{\text{total}}}{{DF_{\text{total}}}} \]

Estadistico de prueba \(F_0\)

\[F_0 = \frac{MS_{\text{tratamiento}}}{{MS_{\text{error}}}}\]

Estadistico teórico

\[ F_ {{\alpha}, a-1, (a-1)(b-1)}\]

Solución de la situación problema en R

#Datos del experimento
tipo_alimentacion <-  c(1,1,1,1,1,1,1,1,1,1,2,2,2,2,2,2,2,2,2,2,3,3,3,3,3,3,3,3,3,3)

huevos <- c(9,10,8,9,8,9,9,10,9,8,12,13,11,12,14,14,13,11,12,14,15,17,16,18,18,19,17,17,18,19)

#Factor de interes
tipo_alimentacion  = as.factor(tipo_alimentacion )

#Modelo de datos 

modelo = lm(huevos~tipo_alimentacion)

#Analisis de Varianza 

anova1 = aov(modelo)

#Mostrar resulatdos 

summary(anova1)
                  Df Sum Sq Mean Sq F value   Pr(>F)    
tipo_alimentacion  2  363.3  181.63   154.7 1.62e-15 ***
Residuals         27   31.7    1.17                     
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
#Estadistico teorico
qf(0.05,2,27,lower.tail=FALSE)
[1] 3.354131
154.7>3.354131
[1] TRUE
154.7>3.354131
[1] TRUE

El análisis de varianza muestra que el valor F calculado es significativamente mayor que el valor F crítico:

\[F_0=154.7>F_ {{\alpha}, 2,27}= 3.354131\] se rechaza la hipótesis nula por lo que la frecuencia de alimentación diaria (una, dos o tres veces al día) tiene un efecto significativo sobre la producción de huevos en gallinas durante el período de 15 días.

Conclusión

El análisis de varianza (ANOVA) realizado muestra que la frecuencia de alimentación diaria tiene un efecto significativo sobre la producción de huevos en gallinas durante un periodo de 10 días,lo que indica que al menos uno de los tratamientos presenta una media significativamente diferente. Por lo tanto, se rechaza la hipótesis nula y se concluye que la cantidad de veces que se alimenta a las gallinas influye significativamente en la producción de huevos.

En términos de efectos, se observa que a medida que aumenta la frecuencia de alimentación, también aumenta la producción promedio de huevos. Las gallinas alimentadas una vez al día (T1) tuvieron la menor producción media, seguidas por las alimentadas dos veces al día (T2), mientras que las alimentadas tres veces al día (T3) alcanzaron la mayor producción media.


verificación de supuestos

NORMALIDAD

En esta sección, se procederá a la verificación del supuesto de normalidad utilizando métodos gráficos y analíticos.Verificamos el supuesto de normalidad de los residuos en este caso para asegurarnos de que los resultados del ANOVA (como el valor F y el p-valor) sean válidos y confiables:

\(Y_{ij} \sim N (\mu + \tau_i, \ \sigma^2)\)

\(\forall \ i \ e \ 1, 2, 3, 4, 5 \ \ j \ e\ 1, 2, 3, 4\)

Donde:

\(Y_{ij}\): la cantidad de huevos producidos por la gallina \(j\) bajo el tratamiento \(i\).

\(\mu\): Es la media general de la producción de huevos en todo el experimento, sin importar el tratamiento. Es decir, el promedio de huevos considerando todas las gallinas, sin distinguir cuántas veces al día se alimentaron

\(\tau_i\): (factor de interes)Es el efecto del tratamiento \(i\), es decir, cuánto se desvía el tratamiento \(i\) (frecuencia de alimentación) del promedio general.

\(\sigma^2\): Varianza muestral, es decir la variabilidad natural en la producción de huevos que no puede explicarse por el tratamiento. Este valor es esencial para el cálculo del estadístico F.

El supuesto de normalidad garantiza la validez de las inferencias estadísticas derivadas del modelo. Si los datos no siguen una distribución normal, las pruebas paramétricas podrían producir resultados incorrectos, y podría ser necesario aplicar transformaciones a los datos o utilizar métodos no paramétricos alternativos.

Para verificar la normalidad al problema propuesto, aplicamos dos enfoques principales:

  • Método gráfico: Este método proporciona una representación visual de la distribución de los datos y permiten observar si se ajustan a una distribución normal. Aquí se utiliza el gráfico cuantil-cuantil (Q-Q plot) para comparar los cuantiles observados de los datos con los cuantiles esperados de una distribución normal teórica.

  • Métodos analíticos: Estos métodos proporcionan una evaluación formal de la normalidad mediante pruebas estadísticas. Se emplean el test de Shapiro-Wilk para evaluar si los datos se ajustan a una distribución normal. Estas pruebas proporcionan valores p que ayudan a decidir si se puede rechazar la hipótesis nula de normalidad.


Residuales

Se define un residual \(e_{ij}\) como la diferencia entre la observación original \(Y_{ij}\) y el valor ajustado o estimado \(\hat{Y}_{ij}\) proporcionado por el modelo estadístico. El residual también refleja la desviación entre los datos observados y lo que predice el modelo. Los residuales son fundamentales en el análisis de datos porque representan la variabilidad que no ha sido explicada por el modelo. Matemáticamente, el residual se expresa como:

\(e_{ij} = Y_{ij}-\hat{Y}_{ij}\), donde \(\hat{Y}_{ij} = \tilde{Y}_{i.}\)

\(e_{ij} = Y_{ij}-\tilde{Y}_{i.}\)

Donde:

\(e_{ij}\): es el residual para la \(j-ésima\) observación en el \(i-ésimo\) nivel del mostrador.

\(Y_{ij}\): es la cantidad de huevos producidos por la gallina \(j\) bajo el tratamiento \(i\). \(\tilde{Y}_{i.}\): Promedio de las observaciones para la cantidad de huevos producidos por la gallina \(j\) bajo el tratamiento \(i\)

Hipótesis del supuesto de normalidad

Para verificar si los residuos del modelo ANOVA siguen una distribución normal, se utiliza una prueba estadística como la Shapiro-Wilk. Las hipótesis que se plantean son:

  • Hipótesis nula \(H_0\):
    Los residuos provienen de una distribución normal.

    \[ H_0: \text{Los residuos se distribuyen normalmente} \]

  • Hipótesis alternativa \(H_1\):
    Los residuos no provienen de una distribución normal.

    \[ H_1: \text{Los residuos no se distribuyen normalmente} \]

Si el valor \(p > 0.05\), no se rechaza \(H_0\) y se concluye que los residuos son normales, cumpliéndose así el supuesto de normalidad.


Graficamente

El análisis gráfico de los residuales evalúa la adecuación de un modelo estadístico. En este contexto, el gráfico cuantil-cuantil se utiliza para verificar si los residuales siguen una distribución normal. En este gráfico, se comparan los cuantiles observados de los residuales con los cuantiles esperados de una distribución normal teórica.

Por ende, si los residuales siguen una distribución normal, los puntos en el gráfico se alinearán aproximadamente a lo largo de una línea recta.

Primero, se calculan los promedios de las observaciones para cada nivel de tratamiento usando la fórmula de la media muestral:

\(\tilde X = \frac {\sum_{i=1}^{n}X_i}{n}\)

Donde:

\(\tilde X\): Es la media muestral.

\(X_i\): son los valores individuales de la muestra.

\(n\): es el número total de observaciones en la muestra.

Para cada nivel de tratamiento, los residuales se obtienen restando el promedio del nivel a cada observación individual. A continuación, se presenta la tabla con las observaciones y sus promedios:

Tratamiento (Frecuencia diaria) Observaciones (Huevos) Promedio
T1: Una vez al día 9, 10, 8, 9, 8, 9, 9, 10, 9, 8 8.9
T2: Dos veces al día 12, 13, 11, 12, 14, 14, 13, 11, 12, 14 12.6
T3: Tres veces al día 15, 17, 16, 18, 18, 19, 17, 17, 18, 19 17.4

Observaciones y sus promedios por tratamiento.


Una vez calculados los promedios de las observaciones para cada nivel de tratamiento, el siguiente paso es calcular los residuales. Es importante entender que este cálculo mide la diferencia entre cada observación individual y el promedio del nivel de tratamiento correspondiente. Los residuales proporcionan información crucial sobre cómo se ajusta el modelo a los datos.

Gráfico de dispersión

Este gráfico sirve para evaluar visualmente la conformidad de los residuales con una distribución normal. En un gráfico ideal, los puntos deberían alinearse aproximadamente a lo largo de una línea diagonal recta, que representa la distribución normal estándar.

Para generar este gráfico en RStudio, se puede utilizar el siguiente código:

Codigo en R

# residuales

residuales = anova1$residuals 

#Normalidad 

qqnorm(residuales)
qqline(residuales)

Dado que el valor p = 0.4054 > 0.05, no se rechaza la hipótesis nula,por lo que los residuale sproviene de una distribucion normal

Conclusión

El gráfico cuantil-cuantil muestra que la mayoría de los puntos se alinean con la línea de tendencia, lo que sugiere que los residuales siguen una distribución aproximadamente normal. No obstante, se presentan ligeras desviaciones en los extremos, lo que podría indicar la existencia de valores atípicos o una leve desviación de la normalidad en las colas de la distribución. En términos generales, la distribución de los residuales es aceptable, lo que permite asumir el cumplimiento del supuesto de normalidad y aplicar métodos paramétricos que dependen de esta condición.

Analiticamente

El test de Shapiro-Wilk es una prueba estadística utilizada para evaluar si un conjunto de datos sigue una distribución normal..

Esta prueba compara los valores observados de los datos con los valores esperados bajo una distribución normal. Calcula un estadístico, denotado como \(W\), que mide la correlación entre los datos ordenados y los cuantiles correspondientes de una distribución normal.

Un valor de \(W\) cercano a \(1\) indica que los datos se ajustan aproximadamente a una distribución normal, mientras que un valor significativamente menor sugiere una desviación de la normalidad. Además, el \(p-value\) asociado al test ayuda a decidir si se rechaza la hipótesis nula de normalidad. Si el \(p-value\) es menor que un umbral establecido (generalmente \(\alpha = 0.05\)), se concluye que los datos no siguen una distribución normal.

Codigo en R

#normalidad analitica-formal-SHAPIRO-WILKS
shapiro.test(residuales)

    Shapiro-Wilk normality test

data:  residuales
W = 0.96467, p-value = 0.4054

Conclusión

Dado que el valor ( p = 0.4054 ) es mayor que el nivel de significancia ( = 0.05 ), no se rechaza la hipótesis nula de la prueba de Shapiro-Wilk.
Esto indica que los residuos del modelo ANOVA provienen de una distribución normal, por lo tanto, se cumple el supuesto de normalidad, lo que valida el uso de este análisis estadístico en el experimento sobre la producción de huevos en gallinas.

HOMOCEDASTICIDAD

Gráficamente

hocedasticidad verificacion varianza

Grafico ajustado vs reisduales

Codigo en R

library(ggplot2)
ajustados =  anova1$fitted.values
residuales = anova1$residuals
datos = data.frame(ajustados,residuales)
grafico = ggplot(data = datos, aes(x=ajustados, y=residuales)) + geom_point()
grafico = grafico + xlab("ajustados") + ylab ("residuales") + ggtitle("homocedasticidad")
grafico

Conclusión

Del gráfico de dispersión Ajustados vs. Residuales no se encuentra evidencia para sospechar sobre la no homogeneidad de la varianza.
No se observa un patrón evidente, como un embudo (ensanchamiento o estrechamiento progresivo) ni acumulación sistemática de residuos.
Los puntos aparecen dispersos de forma aleatoria alrededor del eje horizontal, lo que indica que la varianza de los errores es constante a lo largo del rango de valores ajustados.

Analiticamente

El test de Bartlett es una prueba estadística utilizada para determinar si la varianza de dos o más grupos es igual. Fue desarrollado por el estadístico británico Maurice Bartlett en 1937.El test de Bartlett se utiliza comúnmente en análisis de varianza (ANOVA) para verificar la homocedasticidad, es decir, si la varianza de los residuales es constante en todos los grupos.

Hipótesis

La prueba de Bartlett se basa en la siguiente hipótesis:

  • H0: La varianza es igual en todos los grupos.

Hipótesis Nula (H0)

H0: σ₁² = σ₂² = … = σₖ²

Donde:

  • σ₁², σ₂², …, σₖ² son las varianzas de los k grupos.

  • H1: La varianza no es igual en todos los grupos. H1: No todas las varianzas son iguales.

Es decir, existe al menos un par de grupos con varianzas diferentes:

σᵢ² ≠ σⱼ² para algún i ≠ j.

Codigo en R

bartlett.test(residuales~tipo_alimentacion)

    Bartlett test of homogeneity of variances

data:  residuales by tipo_alimentacion
Bartlett's K-squared = 2.564, df = 2, p-value = 0.2775
qchisq(0.05,2, lower.tail = FALSE)
[1] 5.991465
2.564>5.991465
[1] FALSE

Conclusión

Basándose en las comparaciones, se puede concluir que:

  • El valor p (0.2775) es mayor que el nivel de significación (0.05), por lo que no se rechaza la hipótesis nula.
  • El estadístico calculado (2.564) es menor que el cuantil teórico (5.991465), por lo que no se rechaza la hipótesis nula.Por lo tanto podemos concluir que no hay evidencia estadística para rechazar la hipótesis nula, lo que sugiere que la varianza es igual en todos los grupos.

INDEPENDENCIA

El supuesto de independencia indica que los errores de la regresión no deben estar correlacionados entre sí. Si hay autocorrelación presente, puede afectar la precisión de los coeficientes y las pruebas de hipótesis, lo que lleva a conclusiones erróneas sobre la importancia de las variables predictoras.

Autocorrelación

La autocorrelación se refiere a la presencia de un patrón sistemático en la distribución de los errores del modelo a lo largo del tiempo. En un modelo de regresión, los errores o residuos deberían distribuirse de manera aleatoria y seguir una distribución normal con media cero y varianza constante.

Analiticamente

Una prueba analítica para verificar la independencia entre residuos consecutivos es la prueba de Durbin-Watson. Esta prueba permite diagnosticar la presencia de correlación (autocorrelación) entre los residuos consecutivos (ordenados en el tiempo), que es una posible manifestación de la falta de independencia.

Formulación de Hipótesis

Sea \(\rho\) el parámetro que representa la correlación entre residuos consecutivos, es decir, \(Corr(e_t, e_{t+1})\). La hipótesis en la prueba de Durbin-Watson es:

  • \(H_0: \rho = 0\) la producción de huevos registrada en cada gallina es independiente de la de las otras, es decir, no hay relación temporal o secuencial entre las observaciones
  • \(H_1: \rho > 0\)Hay dependencia entre las observaciones

codigo en R

library(readxl)
datos <-read_excel("C:/Users/Juan J/Desktop/Semestre 8-2025/Diseño de experimentos/proyecto final/experimento huevos .xlsx")
#FACTTOR 

datos$Alimentacion<- as.factor(datos$Alimentacion)

#MOdelo
modelo <-  lm(datos$Huevos~datos$Alimentacion)


#ANOVA

anova2 <- aov(modelo)

residuales <- anova2$residuals

orden <-  c(1:30)
#Durbin-Watson
library(car)
Cargando paquete requerido: carData
durbinWatsonTest(modelo,alternative = "two.sided")
 lag Autocorrelation D-W Statistic p-value
   1     -0.04195584      2.040694   0.992
 Alternative hypothesis: rho != 0
do= 2.040694
dl=1.214 
du=1.650
4-du
[1] 2.35
4-dl
[1] 2.786

Evaluación del supuesto de independencia: Test de Durbin-Watson

  • Valor observado del estadístico Durbin-Watson (d₀): 2.040694

  • Valores críticos para 30 observaciones y 3 tratamientos (a = 3):

    • ( d_L = 1.214 ) (límite inferior)
    • ( d_U = 1.650 ) (límite superior)
    • ( 4 - d_U = 2.35 )
    • ( 4 - d_L = 2.786 )

Interpretación de los resultados del test Durbin-Watson

El valor observado del estadístico Durbin-Watson fue:

[ d_0 = 2.04 ]

Comparado con los valores críticos:

[ d_U = 1.650 < d_0 = 2.04 < 4 - d_U = 2.35 ]

Este rango se denomina zona de no decisión del rechazo y, según la tabla de interpretación:

Si ( d_U < d_0 < 4 - d_U ), no se rechaza** la hipótesis nula ( H_0 ).

Conclusión:

Los residuos del modelo son independientes, es decir, no hay autocorrelación entre ellos.Esto indica que la producción de huevos de una gallina no influye ni depende de la de otra, por lo tanto, se cumple el supuesto de independencia, y el modelo es estadísticamente válido bajo este criterio.

Gráficamente

La graficación de los residuales en orden temporal de recolección de los datos es útil para detectar correlaciones entre los residuales \(e\_{ij}\).

Una tendencia a tener corridas de residuales \(e\_{ij}\) positivos o negativos indica una correlación positiva. Esto implicaría que el supuesto de independencia de los errores \(\epsilon\_{ij}\) ha sido violado.

La aleatorización adecuada del experimento es un paso clave para poder conseguir independencia

Codigo en R

library(readxl)
datos <- read_excel("C:/Users/Juan J/Desktop/Semestre 8-2025/Diseño de experimentos/proyecto final/experimento huevos .xlsx")
#FACTTOR 

 datos$Alimentacion<- as.factor(datos$Alimentacion)

#MOdelo
modelo <-  lm(datos$Huevos~datos$Alimentacion)

#ANOVA

anova2 <- aov(modelo)

residuales <- anova2$residuals

orden <-  c(1:30)

#Grafico orden Vs residuales orden

plot(x=orden, y=residuales)

Conclusión

A partir del gráfico de residuos vs. orden de corrida, no se observa un patrón claro ni una tendencia definida en los puntos. Los residuos parecen distribuirse de manera aleatoria dentro de una banda horizontal, sin agrupaciones ni tendencias.

Por lo tanto, no se viola el supuesto de independencia de los errores, lo que sugiere que la aleatorización del experimento fue adecuada y que no hay correlación entre los errores.

Interpretación del Resultado

Por lo tanto, no se rechaza \(H_0\). Esto significa que los residuales no poseen autocorrelación serial. En otras palabras, los residuales son independientes y no presentan un patrón de correlación entre sí, existe suficiente evidencia estadística para rechazar H0 , por lo que no existe correlación serial entre los residuales organizados por orden de corrida experimental. Por lo tanto,se cumple mediante el Test de Durbin-Watson el criterio de independencia.

Conclusión sobre los supuestos del ANOVA

  • Normalidad: Los residuos del modelo presentan un comportamiento compatible con una distribución normal (p = 0.4054 en la prueba de Shapiro-Wilk), lo que indica que se cumple el supuesto de normalidad. Esto permite confiar en la validez del análisis estadístico realizado sobre la producción de huevos.

  • Homocedasticidad: La prueba de Bartlett no mostró evidencia significativa de diferencias entre las varianzas de los tratamientos (p > 0.05). Por lo tanto, se cumple el supuesto de homocedasticidad, lo que sugiere que la variabilidad en la producción de huevos es similar en los tres grupos de frecuencia de alimentación.

  • Independencia: El estadístico de Durbin-Watson se encuentra dentro del rango que permite aceptar la hipótesis nula de independencia de los errores. Esto indica que las observaciones (producción de huevos) no presentan patrones de autocorrelación entre sí, y por lo tanto, los residuos son independientes.


2. Cálculo de LSD

La diferencia mínima significativa (LSD) se calcula como:

\[LSD = t\_{\alpha/2, N - a} \cdot \sqrt{\frac{2 \cdot MS_{error}}{n}}\]

3. Comparación LSD

Se compara el valor absoluto de la diferencia de medias puntuales \(bar{y}\_i - \bar{y}\_j\) con el LSD calculado:

  • Si \[ \|\bar{y}\_i - \bar{y}\_j\| \>\]LSD → Se rechaza \(H_0\) (diferencia significativa entre tratamientos)

1. Hipótesis de las pruebas LSD y Tukey HSD

Ambas pruebas se utilizan después de obtener un resultado significativo en el ANOVA, con el fin de identificar entre qué tratamientos existen diferencias reales.

Hipótesis para LSD y Tukey HSD

  • Hipótesis nula \(H_0\):
    Las medias de los tratamientos comparados son iguales.
    \[ H_0: \mu_i = \mu_j \]

  • Hipótesis alternativa \(H_1\):
    Las medias de los tratamientos comparados son diferentes.
    \[ H_1: \mu_i \ne \mu_j \]

Estas hipótesis se plantean para cada par de tratamientos (por ejemplo, T1 vs T2, T1 vs T3, T2 vs T3) con el fin de determinar dónde se encuentran las diferencias significativas en la media de producción de huevos.

Codigo en R

#LSD

library(agricolae)
Warning: package 'agricolae' was built under R version 4.4.3
LSD.test(y=anova1,trt ="tipo_alimentacion",group = TRUE,console = TRUE)

Study: anova1 ~ "tipo_alimentacion"

LSD t Test for huevos 

Mean Square Error:  1.174074 

tipo_alimentacion,  means and individual ( 95 %) CI

  huevos       std  r        se       LCL       UCL Min Max   Q25  Q50   Q75
1    8.9 0.7378648 10 0.3426476  8.196945  9.603055   8  10  8.25  9.0  9.00
2   12.6 1.1737878 10 0.3426476 11.896945 13.303055  11  14 12.00 12.5 13.75
3   17.4 1.2649111 10 0.3426476 16.696945 18.103055  15  19 17.00 17.5 18.00

Alpha: 0.05 ; DF Error: 27
Critical Value of t: 2.051831 

least Significant Difference: 0.9942698 

Treatments with the same letter are not significantly different.

  huevos groups
3   17.4      a
2   12.6      b
1    8.9      c

El experimento revela de manera clara que aumentar la frecuencia de alimentación diaria mejora significativamente la producción de huevos en gallinas. Las gallinas alimentadas tres veces al día (T3) produjeron en promedio casi el doble que aquellas alimentadas una vez (T1), y también superaron claramente las alimentadas dos veces (T2)

#prueba HSD


#HSD Tukey

library(agricolae)

Prueba_HSD<- TukeyHSD(anova1, conf.level = 0.95, ordered = TRUE)
Prueba_HSD
  Tukey multiple comparisons of means
    95% family-wise confidence level
    factor levels have been ordered

Fit: aov(formula = modelo)

$tipo_alimentacion
    diff      lwr      upr p adj
2-1  3.7 2.498531 4.901469 1e-07
3-1  8.5 7.298531 9.701469 0e+00
3-2  4.8 3.598531 6.001469 0e+00

Interpretación de los grupos:

Los tratamientos que pertenecen al mismo grupo (según las letras asignadas en la prueba LSD o Tukey) suponen medias estadísticamente iguales.Por el contrario, los tratamientos en grupos diferentes indicanmedias estadísticamente diferentes.

La prueba de Tukey HSD muestra diferencias significativas entre todos los pares de tratamientos. Como todos los intervalos de confianza están alejados de cero y los p-valores ajustados son extremadamente bajos, se rechaza la hipótesis nula para todas las comparaciones.

Conclusión de las pruebas post hoc (LSD y HSD)

  • Prueba LSD:
    La prueba de diferencia mínima significativa (LSD) muestra que alimentar a las gallinas con mayor frecuencia incrementa significativamente la producción de huevos. En particular, las gallinas alimentadas tres veces al día (T3) produjeron, en promedio, casi el doble de huevos que aquellas alimentadas una vez (T1), y también superaron claramente a las alimentadas dos veces (T2). Las diferencias entre tratamientos fueron estadísticamente significativas, lo que permite rechazar la hipótesis nula para todas las comparaciones relevantes.

  • Prueba Tukey HSD:
    La prueba de Tukey para comparaciones múltiples también indicó diferencias significativas entre todos los pares de tratamientos. Todos los intervalos de confianza están alejados de cero y los p-valores ajustados fueron muy bajos, confirmando que cada nivel de frecuencia de alimentación produce una media significativamente distinta. Interpretación de los grupos:

Tanto la prueba LSD como la prueba Tukey HSD confirman que incrementar la frecuencia de alimentación diaria tiene un efecto positivo y significativo en la producción de huevos en gallinas.

Conclusión general del experimento

El objetivo de este experimento fue evaluar si la frecuencia de alimentación diaria (una, dos o tres veces al día) tiene un efecto significativo sobre la producción de huevos en gallinas durante un periodo de 10 días. A través del análisis de varianza (ANOVA) y de las pruebas post hoc, se obtuvo evidencia estadística sólida para responder esta pregunta.

Los resultados del ANOVA mostraron un efecto significativo de la frecuencia de alimentación sobre la producción de huevos (F = 154.7, p < 0.001), lo que indica que al menos uno de los tratamientos difiere del resto en términos de producción. Además, se verificó que se cumplen los supuestos del modelo:

  • Normalidad: Los residuos del modelo siguen una distribución normal (p = 0.4054), lo que valida el uso del ANOVA.
  • Homocedasticidad: La prueba de Bartlett confirmó varianzas homogéneas entre tratamientos (p > 0.05).
  • Independencia: El estadístico de Durbin-Watson indicó que no existe autocorrelación entre los residuos (DW = 2.04).

Las pruebas post hoc (LSD y Tukey HSD) revelaron diferencias significativas entre todos los pares de tratamientos. Las gallinas alimentadas tres veces al día (T3) presentaron la mayor producción promedio de huevos, seguidas por las alimentadas dos veces (T2), y finalmente las alimentadas una vez al día (T1), con diferencias significativas en todos los casos.

En conclusión, aumentar la frecuencia de alimentación diaria tiene un efecto positivo y estadísticamente significativo en la producción de huevos de gallinas. Este hallazgo tiene implicaciones prácticas importantes para la optimización de la productividad en sistemas de producción avícola.