ejecicio 1

Comparación de cuatro Metodos de ensamble. Un equipo de mejora investiga el efecto de cuatro Metodos de ensamble A, B, C y D, sobre el tiempo de ensamble en minutos. En primera instancia, la estrategia experimental es aplicar cuatro veces los cuatro Metodos de ensamble en orden completamente aleatorio (las 16 pruebas en orden aleatorio). Los tiempos de ensamble obtenidos se muestran en la tabla 3.1. Si se usa el diseño completamente al azar (DCA), se supone que, además del Metodo de ensamble, no existe ningún otro factor que influya de manera significativa sobre la variable de respuesta (tiempo de ensamble).

library(readxl)
datos <- read_excel("C:/Users/angel/Documents/ajumele.xlsx")
datos
## # A tibble: 16 × 2
##    desgaste metodo
##       <dbl> <chr> 
##  1        6 A     
##  2        8 A     
##  3        7 A     
##  4        8 A     
##  5        7 B     
##  6        9 B     
##  7       10 B     
##  8        8 B     
##  9       11 C     
## 10       16 C     
## 11       11 C     
## 12       13 C     
## 13       10 D     
## 14       12 D     
## 15       11 D     
## 16        9 D

analisis descriptivo

Veamos el número de observaciones(replicas) por tratamiento para ver si es modelo balanceado

conteo_valoresmetodo <- table(datos$metodo)
conteo_valoresmetodo
## 
## A B C D 
## 4 4 4 4

Dado que el número de observaciones por tratamiento es el mismo, se puede concluir que es un diseño balanceado.

•Medidas descriptivas de la variable dependiente (desgaste)

library(summarytools)
summarytools::descr(datos[,1])
## Descriptive Statistics  
## datos$desgaste  
## N: 16  
## 
##                     desgaste
## ----------------- ----------
##              Mean       9.75
##           Std.Dev       2.57
##               Min       6.00
##                Q1       8.00
##            Median       9.50
##                Q3      11.00
##               Max      16.00
##               MAD       2.22
##               IQR       3.00
##                CV       0.26
##          Skewness       0.68
##       SE.Skewness       0.56
##          Kurtosis      -0.11
##           N.Valid      16.00
##         Pct.Valid     100.00

A partir de los resultados que arroja el programa podemos concluir: el promedio de desgaste es de 9.75, con desviación estándar de 2.57, el valor mínimo de desgaste es de 6, el valor máximo de desgaste es de 16, el 50% de las observaciones(8) presentaron un desgaste entre 6 y 9.5, mientras que el restante 50% (8) presento un desgaste entre9.5 y 16, el coeficiente de asimetría fue de 0.68 presentando una asimetría positiva leve, además el coeficiente de curtosis fue de -0.11, indicando que la distribución es levemente platicurtica.

•Medidas descriptivas por Tratamientos

resultados_descriptivos <- aggregate(desgaste ~ metodo, data = datos, summary)
print(resultados_descriptivos)
##   metodo desgaste.Min. desgaste.1st Qu. desgaste.Median desgaste.Mean
## 1      A          6.00             6.75            7.50          7.25
## 2      B          7.00             7.75            8.50          8.50
## 3      C         11.00            11.00           12.00         12.75
## 4      D          9.00             9.75           10.50         10.50
##   desgaste.3rd Qu. desgaste.Max.
## 1             8.00          8.00
## 2             9.25         10.00
## 3            13.75         16.00
## 4            11.25         12.00

LLevando a cabo el análisis descriptivo por tratamiento se obtuvieron os sigueintes resultados:

•Para el método de ensamble A: el promedio de desgaste es de 7.25, el valor mínimo de desgaste es 6, el valor máximo de desgaste es 8, el 50% de las observaciones(2) presentaron un desgaste entre 6 y 7.5, mientras que el restante 50% (2) presento un desgaste entre 7.5 y 8.

•Para el método de ensamble B: el promedio de desgaste es de 8.5, el valor mínimo de desgaste es 7, el valor máximo de desgaste es 10, el 50% de las observaciones(2) presentaron un desgaste entre 7 y 8.5, mientras que el restante 50% (2) presento un desgaste entre 8.5 y 10.

•Para el método de ensamble C: el promedio de desgaste es de 12.75, el valor mínimo de desgaste es 11, el valor máximo de desgaste es 16, el 50% de las observaciones(2) presentaron un desgaste entre 11 y 12, mientras que el restante 50% (2) presento un desgaste entre 12 y 16.

•Para el método de ensamble D: el promedio de desgaste es 10.5, el valor mínimo de desgaste es 9, el valor máximo de desgaste es 12, el 50% de las observaciones(2) presentaron un desgaste entre 9 y 10.5, mientras que el restante 50% (2) presento un desgaste entre 10.5 y 12. Realización del anova

Realización del anova

A continuación se llevará a cabo el ANOVA de un factor o modelo factorial de un solo factor el cual nos permite estudiar si existen diferencias significativas entre las medias de desgaste de los cuatro métodos de ensamble.

Las hipótesis contrastadas en el ANOVA son: No hay diferencias entre las medias de los diferentes métodos de ensamble y existen por lo menos dos métodos de ensamble con diferencias significativas en el promedio de desgaste. Que se plantearían de la siguiente forma:

H 0
H0 : μ A =μ B =μ C =μ D =μ μA=μB=μC=μD=μ

H a
Ha : μ i =μ j
μi=μj para i≠j i≠j e i,j=A,B,C,D i,j=A,B,C,D

respectivamente.

modelo_anova <- aov(desgaste ~ metodo, data = datos)
resumen_anova <- summary(modelo_anova)
print(resumen_anova)
##             Df Sum Sq Mean Sq F value  Pr(>F)   
## metodo       3   69.5  23.167   9.424 0.00177 **
## Residuals   12   29.5   2.458                   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

En este caso el ANOVA ha resultado significativo valor F = 9.924 y p-valor 0.00177, es manor que alpha (0.05), no se dispone de evidencia suficiente para considerar que los promedios son iguales, (es decir se rechaza H 0
H0 ) por lo que se supone que existen por lo menos dos métodos de ensamble con diferencias significativas en el promedio de desgaste. Para estimar cuales son los métodos de ensamble cuyos medias de desgaste son diferentes, hacemos uso de los diagramas de cajas y bigotes por cada método o tratamiento.

•diagrama de cajas y bigotes por tratamiento

boxplot(datos$desgaste ~ datos$metodo, data = datos, col = c("red", "blue", "green","orange"), ylab = "Precio", xlab = "Zona")

De la grafica anterior se puede evidenciar que existen diferencias en los promedios de desgaste entre el método de ensamble A y el método de ensamble C Y D, también se puede observar diferencias entre el método B y C (no se traslapan las gráficas).

Como se ha rechazado la hipótesis de igualdad de medias con el test ANOVA, el interés está en averiguar cuál o cuáles pares de medias son diferentes entre sí.

Como se observo en la gráfica de medias, estos interrogantes se responden probando la igualdad de todos los posibles pares de medias, para lo que se han propuesto varios métodos, conocidos como métodos de comparaciones múltiples o pruebas de rango múltiple(pruebas post hoc). La diferencia primordial entre dichos métodos radica en la potencia que tienen para detectar las diferencias entre las medias. Se dice que una prueba es más potente si es capaz de detectar diferencias más pequeñas.

Dentro de dichos métodos encontramos:

•Método LSD (diferencia mínima significativa)

•Método de Tukey

•Método de Duncan

Métodos de comparaciones múltiples o pruebas de rango múltiple (pruebas post hoc)

Método de Tukey

TukeyHSD(modelo_anova)
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = desgaste ~ metodo, data = datos)
## 
## $metodo
##      diff         lwr      upr     p adj
## B-A  1.25 -2.04155503 4.541555 0.6804513
## C-A  5.50  2.20844497 8.791555 0.0016206
## D-A  3.25 -0.04155503 6.541555 0.0533380
## C-B  4.25  0.95844497 7.541555 0.0110423
## D-B  2.00 -1.29155503 5.291555 0.3181239
## D-C -2.25 -5.54155503 1.041555 0.2309373

Luego de realizar las prueba de comparaciones múltiples de Tukey, se concluye que existen diferencia significativas entre los métodos de ensamble A y C con una diferencia de 5.50 cuyo intervalo de confianza del 95% para la diferencia es (2.2, 8.8) y un p-valor de 0.002, lo que resulta significativo (menor de 0.05), es decir no se dispone de evidencia suficiente para considerar que los promedios de desgaste en los dos tratamiento son iguales.

También se estima que existen diferencia significativas entre los métodos de ensamble C y B con una diferencia de 4.25 cuyo intervalo de confianza del 95% para la diferencia es (0.95, 7.54) y un p-valor de 0.011, lo que resulta significativo (menor de 0.05), es decir no se dispone de evidencia suficiente para considerar que los promedios de desgaste en los dos tratamiento son iguales.

Para la comparación de los demás tratamientos(métodos de ensamble) no resulto significativo.

plot(TukeyHSD(modelo_anova))

Lo mencionado anteriormente se confirma con la grafica de la diferencia de medias(intervalos de confianza) en los distintos niveles del método.

Método de Duncan

library(agricolae)
metodos.Duncan <-duncan.test(modelo_anova, trt = "metodo", group = T, console = T)
## 
## Study: modelo_anova ~ "metodo"
## 
## Duncan's new multiple range test
## for desgaste 
## 
## Mean Square Error:  2.458333 
## 
## metodo,  means
## 
##   desgaste       std r        se Min Max   Q25  Q50   Q75
## A     7.25 0.9574271 4 0.7839537   6   8  6.75  7.5  8.00
## B     8.50 1.2909944 4 0.7839537   7  10  7.75  8.5  9.25
## C    12.75 2.3629078 4 0.7839537  11  16 11.00 12.0 13.75
## D    10.50 1.2909944 4 0.7839537   9  12  9.75 10.5 11.25
## 
## Alpha: 0.05 ; DF Error: 12 
## 
## Critical Range
##        2        3        4 
## 2.415602 2.528441 2.596810 
## 
## Means with the same letter are not significantly different.
## 
##   desgaste groups
## C    12.75      a
## D    10.50     ab
## B     8.50     bc
## A     7.25      c

De la salida anterior los tratamientos que comparten al menos una letra en la columna grupos se consideran no significativamente diferentes entre sí. Estos tratamientos forman grupos estadísticamente similares.

Mientras que los tratamientos que tienen letras diferentes en la columna grupos se consideran significativamente diferentes entre sí. Si un tratamiento tiene una letra diferente de otro, significa que hay una diferencia estadísticamente significativa en sus medias, para nuestro caso los tratamientos(métodos de ensamble) C con A, B con C y D con A, no comparten letra por lo tanto se consideran significativamente diferentes.

Lo cual se observa en la siguiente gráfica

plot(metodos.Duncan, variation="IQR" )

Verificación de los supuestos del modelo

La validez de los resultados obtenidos en cualquier análisis de varianza queda condicionado a que los supuestos del modelo se cumplan. Estos supuestos son: normalidad, varianza constante (igual varianza de los tratamientos) e independencia.

Distribución normal de los residuos

Este supuesto se basa en la idea de que los residuos siguen una distribución normal. Para comprobar esto, primero analizamos una curva de densidad que muestra cómo se distribuyen las frecuencias de los residuos. Esta curva se asemeja a una campana de Gauss, lo que sugiere que los residuos podrían seguir una distribución normal.

Luego, representamos un gráfico de probabilidad normal donde los cuantiles observados de los residuos (mostrados como puntos negros) se acercan a la línea central, que representa los cuantiles de una distribución normal teórica. Este patrón indica que no hay evidencia de que los residuos incumplan el supuesto de normalidad.

library(png)
library(car)
## Loading required package: carData
residuos<-residuals(modelo_anova)
par(mfrow=c(1,3))
dplot<-density(residuos)

plot(dplot,
     main="Curva de densidad observada",
     xlab = "Residuos",
     ylab = "Densidad")
polygon(dplot,
        col = "green",
        border = "black")

qqPlot(residuos,
       pch =20,
       main="QQ-Plot de los residuos",
       xlab = "Cuantiles teóricos",
       ylab="Cuantiles observados de los residuos")
## [1] 10  9

boxplot(residuos, col = c("red"), ylab = "residuos", main="Box-plot  de los residuos")

Sin embargo, para confirmar de manera más sólida que los residuos siguen una distribución normal, se realiza la prueba de Shapiro-Wilk.

Para la prueba Shapiro-Wilk para ratificar el cumplimiento del supuesto de normalidad de los residuos, evaluando las hipótesis:

•H o
Ho : Los residuos de la variable desgaste se distribuyen normalmente con media cero y varianza constante ei N(0,1) ei N(0,1) .

•H a
Ha : los residuos de la variable desgaste no siguen la distribución normal.

shapiro.test(residuals(modelo_anova))
## 
##  Shapiro-Wilk normality test
## 
## data:  residuals(modelo_anova)
## W = 0.93389, p-value = 0.2808

Por lo tanto no hay evidencia estadística suficiente para rechazar H 0
H0 , es decir se acepta la hipótesis nula, debido a que el valor de p (p-value = 0.2808 ) es mayor al valor del nivel de significancia (alfa=0.05), por lo que se concluye que los residuos de la variable porcentaje de parasitismo están normalmente distribuidos con media cero y varianza constante.

Homogeneidad de varianzas

Este es el supuesto de mayor relevancia que los residuos deben cumplir para que el modelo empleado sea válido.

Con un diagrama de cajas y bigotes se puede apreciar gráficamente que la dispersión de los residuos para cada tratamiento son muy distintas entre si, en el caso de esta inspección no se encontraron indicios de un incumplimiento de este supuesto.

boxplot(residuos ~ datos$metodo, 
        main = "Boxplot de Residuos por método de ensamble", 
        xlab = "Método de ensamble",
        col="orange",
        ylab = "Residuos")

En la siguiente gráfica, se representan los valores predichos por el modelo para la variable desgaste del material en función de la raíz cuadrada de los residuos estandarizados. En esta gráfica, no se observa ninguna tendencia aparente en la distribución de los valores, lo que sugiere que no hay evidencia de incumplimiento del supuesto de homogeneidad de varianzas.

Ahora graficamos los residuos

library(car)
color_1 <-colorRampPalette(c("yellow ", "blue", "yellow"))


plot(residuos, main = "Prueba de independencia", pch=20,cex = 2, col=color_1(120), ylab = "Residuos", xlab = " ")

En la grafica anterior se observan dispersos los puntos sin seguir un patron, esto es un indicio de homogeneidad de varianzas (entre más dispersos menos correlacionados)

Sin embargo, para validar de manera más sólida la homogeneidad de varianzas, se llevó a cabo la prueba de bartlett y la prueba de Levene.

Donde las hipotesis correspondientes son:

•H o
Ho : Los residuos de la variable desgaste son iguales para los ditintos métodos de ensamble.

•H a
Ha : Existen por lo menos dos varianzas distintas para los ditintos métodos de ensamble.

Es decir,

•H o
Ho : σ 2 A =σ 2 B =σ 2 C =σ 2 D =σ 2
σA2=σB2=σC2=σD2=σ2

•H a
Ha : σ 2 i =σ 2 j
σi2=σj2 para i,j∈{A,B,C,D} i,j∈{A,B,C,D} e i≠j

library(stats)
bartlett.test(residuos ~ datos$metodo)
## 
##  Bartlett test of homogeneity of variances
## 
## data:  residuos by datos$metodo
## Bartlett's K-squared = 2.4853, df = 3, p-value = 0.4779

De acuerdo al valor arrojado por la prueba de bartlett, valor de p ( 0.4779) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, llegando a la misma conclusión anterior (grafica anterior).

library(stats)
leveneTest(residuos ~ datos$metodo)
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  3  0.9474 0.4485
##       12

De acuerdo al valor arrojado por la prueba de levene, valor de p (0.4485) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, confirmando las conclusiones obtenidas en los items anteriores.

Independencia de los residuos

durbinWatsonTest(modelo_anova)
##  lag Autocorrelation D-W Statistic p-value
##    1      -0.5084746      2.887712   0.252
##  Alternative hypothesis: rho != 0

Puesto que el valor de DW es aproximadamente igual a 2 (1-Rho) donde Rho es la autocorrelación de la muestra de los residuos.

Se debe tener en cuenta que si el valor del estadístico Durbin Watson (DW) está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si tiene un valor de 4 existe autocorrelación perfecta negativa.

Al realizar la prueba de independencia de residuos para la variable desgaste se determinó que los residuos no están correlacionados, debido a que el DW está próximo a 2 y el valor de p (p-value = 0.252) es superior al nivel de significancia de 5% (α α =0.05) por lo que se concluye que existe independencia de los residuos.

ejercicio 2

Se sabe que el dióxido de carbono tiene un efecto crítico en el crecimiento microbiológico. Cantidades pequeñas de CO2 estimulan el crecimiento de muchos microorganismos, mientras que altas concentraciones inhiben el crecimiento de la mayor parte de ellos. Este último efecto se utiliza comercialmente cuando se almacenan productos alimenticios perecederos. Se realizó un estudio para investigar el efecto de CO2 sobre la tasa de crecimiento de Pseudomonas fragi, un corruptor de alimentos. Se administró dióxido de carbono a cinco presiones atmósfericas diferentes. La respuesta anotada es el cambio porcentual en la masa celular después de un tiempo de crecimiento de una hora. Se utilizaron diez cultivos en cada nivel. Se obtuvieron los siguientes datos:

Nivel del factor

(presión en atmósferas de CO2)

datos1 <- read_excel("C:/Users/angel/Documents/ajumele2.xlsx")
datos1
## # A tibble: 50 × 2
##    crecimiento presion
##          <dbl> <chr>  
##  1        62.6 A      
##  2        59.6 A      
##  3        64.5 A      
##  4        59.3 A      
##  5        58.6 A      
##  6        64.6 A      
##  7        50.9 A      
##  8        56.2 A      
##  9        52.3 A      
## 10        62.8 A      
## # ℹ 40 more rows

Analisis descriptivo

Veamos el número de observaciones(replicas) por tratamiento

conteo_valorespresion <- table(datos1$presion)
conteo_valorespresion
## 
##  A  B  C  D  E 
## 10 10 10 10 10

Dado que el número de observaciones por tratamiento es el mismo, se puede concluir que es un diseño balanceado.

Medidas descriptivas de la variable dependiente

library(summarytools)
summarytools::descr(datos1[,1])
## Descriptive Statistics  
## datos1$crecimiento  
## N: 50  
## 
##                     crecimiento
## ----------------- -------------
##              Mean         36.71
##           Std.Dev         15.99
##               Min          7.80
##                Q1         22.80
##            Median         36.75
##                Q3         49.90
##               Max         64.60
##               MAD         19.87
##               IQR         26.67
##                CV          0.44
##          Skewness          0.08
##       SE.Skewness          0.34
##          Kurtosis         -1.13
##           N.Valid         50.00
##         Pct.Valid        100.00

A partir de los resultados que arroja el programa podemos concluir: el promedio de crecimiento es de 36.71, con desviación estándar de 15.99, el valor mínimo de crecimiento es de 7.80, el valor máximo de crecimiento es de 64.60, el 50% de las observaciones(25) presentaron un crecimiento entre 7.80 y 36.75, mientras que el restante 50% (25) presento un crecimiento entre 36.75 y 64.60, el coeficiente de asimetría fue de 0.08 presentando una asimetría positiva leve, además el coeficiente de curtosis fue de -1.13, indicando que la distribución es platicurtica.

Medidas descriptivas por Tratamientos

resultados_descriptivos1 <- aggregate(crecimiento ~ presion, data = datos1, summary)
print(resultados_descriptivos1)
##   presion crecimiento.Min. crecimiento.1st Qu. crecimiento.Median
## 1       A           50.900              56.800             59.450
## 2       B           35.200              43.025             48.000
## 3       C           27.000              31.125             38.400
## 4       D           19.200              22.650             24.250
## 5       E            7.800              11.850             17.000
##   crecimiento.Mean crecimiento.3rd Qu. crecimiento.Max.
## 1           59.140              62.750           64.600
## 2           46.040              49.800           50.900
## 3           36.450              40.150           45.500
## 4           25.470              29.425           32.700
## 5           16.440              21.025           24.900

Tratamiento A: El tratamiento A, que corresponde a una presión de CO2 relativamente alta, muestra un rango significativo en el cambio porcentual en la masa celular de Pseudomonas fragi. El valor mínimo de 50.900 indica que bajo esta condición, el crecimiento de las células puede ser estimulado. El valor máximo de 64.600 sugiere que también puede haber efectos inhibitorios en algunas réplicas. La mediana de 59.450 está cerca del promedio de 59.140, lo que sugiere una distribución aproximadamente simétrica. El tercer cuartil (62.750) indica que el 75% de las observaciones tienen un cambio porcentual en la masa celular por debajo de este valor.

Tratamiento B: En el tratamiento B, que corresponde a una presión de CO2 más baja que el tratamiento A, el rango de cambio porcentual en la masa celular es menor, con un valor mínimo de 35.200 y un valor máximo de 50.900. La mediana de 48.000 está cerca del promedio de 46.040, lo que sugiere una distribución relativamente simétrica. El tercer cuartil de 49.800 indica que la mayoría de las observaciones tienen un cambio porcentual en la masa celular por debajo de este valor.

Tratamiento C: En el tratamiento C, que tiene una presión de CO2 aún menor, el rango de cambio porcentual en la masa celular es más estrecho, con un valor mínimo de 27.000 y un valor máximo de 45.500. La mediana de 38.400 está cerca del promedio de 36.450, indicando una distribución aproximadamente simétrica. El tercer cuartil de 40.150 sugiere que la mayoría de las observaciones tienen un cambio porcentual en la masa celular por debajo de este valor.

Tratamiento D: El tratamiento D, que presenta una presión de CO2 aún más baja, tiene un rango de cambio porcentual en la masa celular más estrecho, con un valor mínimo de 19.200 y un valor máximo de 32.700. La mediana de 24.250 está cerca del promedio de 25.470, lo que indica una distribución relativamente simétrica. El tercer cuartil de 29.425 sugiere que la mayoría de las observaciones tienen un cambio porcentual en la masa celular por debajo de este valor.

Tratamiento E: El tratamiento E, que tiene la presión de CO2 más baja, muestra un rango de cambio porcentual en la masa celular aún más estrecho, con un valor mínimo de 7.800 y un valor máximo de 24.900. La mediana de 17.000 está cerca del promedio de 16.440, lo que sugiere una distribución relativamente simétrica. El tercer cuartil de 21.025 indica que la mayoría de las observaciones tienen un cambio porcentual en la masa celular por debajo de este valor.

Realización del anova

presion_anova1 <- aov(crecimiento ~ presion, data = datos1)
resumen_anova1 <- summary(presion_anova1)
print(resumen_anova1)
##             Df Sum Sq Mean Sq F value Pr(>F)    
## presion      4  11274  2818.6   101.6 <2e-16 ***
## Residuals   45   1248    27.7                   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Los resultados del análisis de varianza (ANOVA) indican que la variable “pres” tiene un efecto significativo en el cambio porcentual en la masa celular de Pseudomonas fragi.

El valor p obtenido es muy pequeño (<2e-16), lo que indica que existe una diferencia significativa en el cambio porcentual en la masa celular entre al menos dos de los tratamientos de presión de CO2. En otras palabras, el factor “PRESION” influye de manera significativa en la respuesta observada.

El estadístico F calculado es de 101.6, lo que respalda la evidencia de que hay diferencias significativas entre los tratamientos de presión de CO2. La varianza entre los grupos es considerable (Sum Sq = 11274), en comparación con la varianza dentro de los grupos (Sum Sq = 1248)

Diagrama de cajas y bigotes por tratamiento

boxplot(datos1$crecimiento ~ datos1$presion, data = datos1, col = c("red", "blue", "green","orange","yellow"), ylab = "crecimiento", xlab = "presion")

Como se observo en la gráfica de medias, estos interrogantes se responden probando la igualdad de todos los posibles pares de medias, para lo que se han propuesto varios métodos, conocidos como métodos de comparaciones múltiples o pruebas de rango múltiple(pruebas post hoc). La diferencia primordial entre dichos métodos radica en la potencia que tienen para detectar las diferencias entre las medias. Se dice que una prueba es más potente si es capaz de detectar diferencias más pequeñas.

Dentro de dichos métodos encontramos:

•Método LSD (diferencia mínima significativa)

•Método de Tukey

•Método de Duncan

Métodos de comparaciones múltiples o pruebas de rango múltiple (pruebas post hoc)

Método de Tukey

TukeyHSD(presion_anova1)
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = crecimiento ~ presion, data = datos1)
## 
## $presion
##       diff      lwr        upr     p adj
## B-A -13.10 -19.7921  -6.407896 0.0000133
## C-A -22.69 -29.3821 -15.997896 0.0000000
## D-A -33.67 -40.3621 -26.977896 0.0000000
## E-A -42.70 -49.3921 -36.007896 0.0000000
## C-B  -9.59 -16.2821  -2.897896 0.0016698
## D-B -20.57 -27.2621 -13.877896 0.0000000
## E-B -29.60 -36.2921 -22.907896 0.0000000
## D-C -10.98 -17.6721  -4.287896 0.0002615
## E-C -20.01 -26.7021 -13.317896 0.0000000
## E-D  -9.03 -15.7221  -2.337896 0.0034105

El análisis de Tukey reveló diferencias significativas entre varios de los tratamientos de presión de CO2 en términos del cambio porcentual en la masa celular de Pseudomonas fragi. En primer lugar, se observó una diferencia significativa entre el tratamiento B y el tratamiento A, con un valor de diferencia (diff) de -13.10. Esto sugiere que bajo la presión de CO2 del tratamiento B, el cambio porcentual en la masa celular es significativamente menor en comparación con el tratamiento A.

Del mismo modo, se encontraron diferencias significativas entre los tratamientos C, D y E en comparación con el tratamiento A. Las diferencias son cada vez más pronunciadas a medida que disminuye la presión de CO2. Por ejemplo, el tratamiento E mostró la mayor diferencia en comparación con el tratamiento A, con un valor de diff de -42.70, indicando una disminución significativa en el cambio porcentual en la masa celular bajo esta presión de CO2 más baja.

Además, las comparaciones entre los tratamientos individuales también revelaron diferencias significativas. Por ejemplo, las comparaciones entre C y B, D y B, así como E y B mostraron diferencias significativas, lo que indica que las respuestas bajo estas presiones de CO2 difieren entre sí.

Asimismo, las comparaciones entre C y A, D y A, así como E y A, también revelaron diferencias significativas, lo que sugiere que cada uno de estos tratamientos tiene un efecto significativamente diferente en comparación con el tratamiento A.

plot(TukeyHSD(presion_anova1))

Lo mencionado anteriormente se confirma con la grafica de la diferencia de medias(intervalos de confianza) en los distintos niveles del método.

Método de Duncan

library(agricolae)
metodos.Duncan <-duncan.test(presion_anova1, trt = "presion", group = T, console = T)
## 
## Study: presion_anova1 ~ "presion"
## 
## Duncan's new multiple range test
## for crecimiento 
## 
## Mean Square Error:  27.73418 
## 
## presion,  means
## 
##   crecimiento      std  r       se  Min  Max    Q25   Q50    Q75
## A       59.14 4.804674 10 1.665358 50.9 64.6 56.800 59.45 62.750
## B       46.04 5.052656 10 1.665358 35.2 50.9 43.025 48.00 49.800
## C       36.45 5.933942 10 1.665358 27.0 45.5 31.125 38.40 40.150
## D       25.47 4.483315 10 1.665358 19.2 32.7 22.650 24.25 29.425
## E       16.44 5.894480 10 1.665358  7.8 24.9 11.850 17.00 21.025
## 
## Alpha: 0.05 ; DF Error: 45 
## 
## Critical Range
##        2        3        4        5 
## 4.743560 4.988480 5.149154 5.265336 
## 
## Means with the same letter are not significantly different.
## 
##   crecimiento groups
## A       59.14      a
## B       46.04      b
## C       36.45      c
## D       25.47      d
## E       16.44      e

De la salida anterior los tratamientos ninguno comparte letra de la columna de grupos, por lo que se puede interpretar como que todos son significativamente diferentes entre sí. Estos tratamientos forman grupos estadísticamente diferentes. Para nuestro caso los tratamientos (presion y cresimiento) ninguno comparte letra por lo tanto se consideran significativamente diferentes.

Lo cual se observa en la siguiente gráfica

#out <- duncan.test(model, "virus", main = "yield of sweetpotato, Dealt with different virus")
plot(metodos.Duncan, variation="IQR" )

Verificación de los supuestos del modelo

La validez de los resultados obtenidos en cualquier análisis de varianza queda condicionado a que los supuestos del modelo se cumplan. Estos supuestos son: normalidad, varianza constante (igual varianza de los tratamientos) e independencia.

Distribución normal de los residuos

Este supuesto se basa en la idea de que los residuos siguen una distribución normal. Para comprobar esto, primero analizamos una curva de densidad que muestra cómo se distribuyen las frecuencias de los residuos. Esta curva se asemeja a una campana de Gauss, lo que sugiere que los residuos podrían seguir una distribución normal.

Luego, representamos un gráfico de probabilidad normal donde los cuantiles observados de los residuos (mostrados como puntos negros) se acercan a la línea central, que representa los cuantiles de una distribución normal teórica. Este patrón indica que no hay evidencia de que los residuos incumplan el supuesto de normalidad.

library(car)
residuos<-residuals(presion_anova1)

par(mfrow=c(1,3))

dplot<-density(residuos)

plot(dplot,
      main="Curva de densidad observada",
      xlab = "Residuos",
      ylab = "Densidad")
polygon(dplot,
        col = "green",
        border = "black")

qqPlot(residuos,
       pch =20,
       main="QQ-Plot de los residuos",
       xlab = "Cuantiles teóricos",
       ylab="Cuantiles observados de los residuos")
## [1] 17 28

boxplot(residuos, col = c("red"), ylab = "residuos", main="Box-plot  de los residuos")

Sin embargo, para confirmar de manera más sólida que los residuos siguen una distribución normal, se realiza la prueba de Shapiro-Wilk.

Para la prueba Shapiro-Wilk para ratificar el cumplimiento del supuesto de normalidad de los residuos, evaluando las hipótesis:

•H o
Ho : Los residuos de la variable presion se distribuyen normalmente con media cero y varianza constante ei N(0,1) ei N(0,1) .

•H a
Ha : los residuos de la variable presion no siguen la distribución normal.

shapiro.test(residuals(presion_anova1))
## 
##  Shapiro-Wilk normality test
## 
## data:  residuals(presion_anova1)
## W = 0.9627, p-value = 0.1153

Por lo tanto no hay evidencia estadística suficiente para rechazar H 0
H0 , es decir se acepta la hipótesis nula, debido a que el valor de p (p-value = 0.1153 ) es mayor al valor del nivel de significancia (alfa=0.05), por lo que se concluye que los residuos de la variable están normalmente distribuidos con media cero y varianza constante.

Homogeneidad de varianzas

Este es el supuesto de mayor relevancia que los residuos deben cumplir para que el modelo empleado sea válido.

Con un diagrama de cajas y bigotes se puede apreciar gráficamente que la dispersión de los residuos para cada tratamiento son muy distintas entre si, en el caso de esta inspección no se encontraron indicios de un incumplimiento de este supuesto.

boxplot(residuos ~ datos1$presion, 
        main = "Boxplot de Residuos por presiones de dioxido de carbono", 
        xlab = "presiones de dioxido de carbono",
        col="orange",
        ylab = "Residuos")

En la siguiente gráfica, se representan los valores predichos por el modelo para la variable presion en función de la raíz cuadrada de los residuos estandarizados. En esta gráfica, no se observa ninguna tendencia aparente en la distribución de los valores, lo que sugiere que no hay evidencia de incumplimiento del supuesto de homogeneidad de varianzas.

Ahora graficamos los residuos

library(car)
color_1 <-colorRampPalette(c("yellow ", "blue", "yellow"))


plot(residuos, main = "Prueba de independencia", pch=20,cex = 2, col=color_1(120), ylab = "Residuos", xlab = " ")

En la grafica anterior se observan dispersos los puntos sin seguir un patron, esto es un indicio de homogeneidad de varianzas (entre más dispersos menos correlacionados)

Sin embargo, para validar de manera más sólida la homogeneidad de varianzas, se llevó a cabo la prueba de bartlett y la prueba de Levene.

Donde las hipotesis correspondientes son:

•H o
Ho : Los residuos de la variable presion son iguales para las distintas presiones atmosfericas usadas.

•H a
Ha : Existen por lo menos dos varianzas distintas para las distintas presiones.

Es decir,

•H o
Ho : σ 2 A =σ 2 B =σ 2 C =σ 2 D =σ 2 E =σ 2 σA2=σB2=σC2=σD2=σ2E2=σ2

•H a
Ha : σ 2 i =σ 2 j
σi2=σj2 para i,j∈{A,B,C,D,E} i,j∈{A,B,C,D,E} e i≠j i≠j

library(stats)
bartlett.test(residuos ~ datos1$presion)
## 
##  Bartlett test of homogeneity of variances
## 
## data:  residuos by datos1$presion
## Bartlett's K-squared = 1.0701, df = 4, p-value = 0.899

De acuerdo al valor arrojado por la prueba de bartlett, valor de p ( 0.899) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, llegando a la misma conclusión anterior (grafica anterior).

library(stats)
leveneTest(residuos ~ datos1$presion)
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  4  0.1926  0.941
##       45

De acuerdo al valor arrojado por la prueba de levene, valor de p (0.941) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, confirmando las conclusiones obtenidas en los items anteriores.

Independencia de los residuos

durbinWatsonTest(presion_anova1)
##  lag Autocorrelation D-W Statistic p-value
##    1    -0.001714932      1.947068   0.474
##  Alternative hypothesis: rho != 0

Puesto que el valor de DW es aproximadamente igual a 2 (1-Rho) donde Rho es la autocorrelación de la muestra de los residuos.

Se debe tener en cuenta que si el valor del estadístico Durbin Watson (DW) está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si tiene un valor de 4 existe autocorrelación perfecta negativa.

Al realizar la prueba de independencia de residuos para la variable presion se determinó que los residuos no están correlacionados, debido a que el DW está próximo a 2 y el valor de p (p-value = 0.438) es superior al nivel de significancia de 5% (α α =0.05) por lo que se concluye que existe independencia de los residuos.

Ejercicio 3

Se hace un estudio sobre la efectividad de tres marcas de spray para matar moscas.Para ello, cada producto se aplica a un grupo de 100 moscas, y se cuenta el número de moscas muertas expresado en porcentajes. Se hacen seis réplicas y los resultados obtenidos se muestran a continuación.

library(readxl)
datos2 <- read_excel("C:/Users/angel/Documents/ajumele3.xlsx")
datos2
## # A tibble: 18 × 2
##    replica spray
##      <dbl> <chr>
##  1      72 A    
##  2      65 A    
##  3      67 A    
##  4      75 A    
##  5      62 A    
##  6      73 A    
##  7      55 B    
##  8      59 B    
##  9      68 B    
## 10      70 B    
## 11      53 B    
## 12      50 B    
## 13      64 C    
## 14      74 C    
## 15      61 C    
## 16      58 C    
## 17      51 C    
## 18      69 C

Analisis Descriptivo

Veamos el número de observaciones(replicas) por tratamiento

conteo_valoresspray <- table(datos2$spray)
conteo_valoresspray
## 
## A B C 
## 6 6 6

Medidas descriptivas de la variable dependiente

library(summarytools)
summarytools::descr(datos2[,1])
## Descriptive Statistics  
## datos2$replica  
## N: 18  
## 
##                     replica
## ----------------- ---------
##              Mean     63.67
##           Std.Dev      8.01
##               Min     50.00
##                Q1     58.00
##            Median     64.50
##                Q3     70.00
##               Max     75.00
##               MAD      8.90
##               IQR     11.50
##                CV      0.13
##          Skewness     -0.25
##       SE.Skewness      0.54
##          Kurtosis     -1.33
##           N.Valid     18.00
##         Pct.Valid    100.00

A partir de los resultados que arroja el programa podemos concluir: el promedio de moscas muertas es de 63.67, con desviación estándar de 8.01, el valor mínimo de moscas muertas es de 50, y el valor máximo de 75. Además, el coeficiente de variación, CV, de 0.13 sugiere una relativa consistencia en la efectividad de cada marca. En términos de simetría y forma de la distribución, la asimetría, skewness, es ligeramente negativa, indicando una cola izquierda en la distribución, mientras que el valor de la curtosis es negativo, -0.25, -1.33

Medidas descriptivas por Tratamientos

resultados_descriptivos2 <- aggregate(replica ~ spray, data = datos2, summary)
print(resultados_descriptivos2)
##   spray replica.Min. replica.1st Qu. replica.Median replica.Mean
## 1     A     62.00000        65.50000       69.50000     69.00000
## 2     B     50.00000        53.50000       57.00000     59.16667
## 3     C     51.00000        58.75000       62.50000     62.83333
##   replica.3rd Qu. replica.Max.
## 1        72.75000     75.00000
## 2        65.75000     70.00000
## 3        67.75000     74.00000

Marca 1 (A): El spray de la Marca 1 logró un promedio de aproximadamente 69.0 moscas muertas por aplicación, con un rango que varía desde un mínimo de 62 hasta un máximo de 75. En cuanto a la distribución de los datos, el 50% de las observaciones se encuentran en un rango que va desde 65.5 hasta 72.75 moscas muertas, con una mediana de 69.5. Esto sugiere que, en promedio, el spray de la Marca 1 tiene un alto nivel de efectividad en la eliminación de moscas, aunque existe cierta variabilidad en los resultados entre las réplicas.

Marca 2 (B): El spray de la Marca 2, por otro lado, mostró un promedio de alrededor de 59.17 moscas muertas por aplicación, con un rango que se extiende desde un mínimo de 50 hasta un máximo de 70. En términos de distribución, el rango intercuartil, entre el primer cuartil y el tercer cuartil, abarca desde 53.5 hasta 65.75 moscas muertas, con una mediana de 57.0. Esto indica que, el spray de la Marca 2 tiene un rendimiento ligeramente menor en la eliminación de moscas en comparación con la Marca 1, con una menor variabilidad entre las réplicas.

Marca 3 (C): tuvo un promedio de aproximadamente 62.83 moscas muertas por aplicación, con un rango que oscila entre un mínimo de 51 y un máximo de 74. En cuanto a su distribución, el rango intercuartil abarca desde 58.75 hasta 67.75 moscas muertas, con una mediana de 62.5. Esto sugiere que la Marca 3 tiene un rendimiento similar al spray de la Marca 2 en términos de moscas muertas y variabilidad. En resumen, estos resultados proporcionan información sobre la efectividad relativa de cada marca de spray en la eliminación de moscas en el experimento.

Realización del anova

spray_anova2 <- aov(replica ~ spray, data = datos2)
resumen_anova2 <- summary(spray_anova2)
print(resumen_anova2)
##             Df Sum Sq Mean Sq F value Pr(>F)  
## spray        2  296.3  148.17   2.793 0.0931 .
## Residuals   15  795.7   53.04                 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Los resultados del análisis de varianza (ANOVA) indican que la variable “SPRAY”, marca de spray, tiene un efecto en la variable de respuesta, que en este caso es la cantidad de moscas muertas.

El valor F calculado es de 1.867 y tiene un correspondiente valor p de 0.191., Un valor p de 0.191 sugiere que no hay evidencia significativa de diferencias entre las marcas de spray en términos de la cantidad de moscas muertas. En otras palabras, no podemos concluir de manera estadísticamente significativa que una marca de spray sea más efectiva que las demás en la eliminación de moscas.

1. Formule la hipótesis adecuada y el modelo estadístico.

H0 :μ1 =μ2 =μ3 =μ4 = μ el promedio de porcentaje de moscas muertas por los spray son iguales

HA :μi ≠μ j para algún i ≠ j El promedio de porcentaje de moscas muertas por los spray no son iguales

Modelo estadístico al AZAR

si H0 < 0,05 se rechaza la hipotesis nula.

si H0 > 0,05 no se rechaza la hipotesis nula

2. ¿Existe diferencia entre la efectividad promedio de los productos en spray?

Con un nivel de significancia del 5%, no se rechaza la hipotesis nula por lo que se infiere que las diferencias de las medias no son significativas. Esto debido a que el p-valor(0,0931)>0,05.

3. ¿Hay algún spray mejor? Argumente su respuesta.

Debido a que no existe evidencia estadistica significativa para establecer que las medias no son iguales con p-valor(0,0931)>0,05, rechazando la hipotesis nula donde nos propone la igualad de medias, podemos inferir que debido a esto las medias son iguales estadisticamente.

4. Dé un intervalo al 95% de confianza para la efectividad promedio (porcentaje) de cada una de las marcas.

Existe efectividad de 69,00% para el spray 1, 59,17% para el spray 2 y 62,83% para el spray 3.

5. Dibuje las gráficas de medias y los diagramas de caja simultáneos, después interprételos.

Evidentementee como se ve en el diagrama de cajas y bigotes en las tres hay un solapamiento con respecto tanto al rango intercuartil y al rango. Es de mencionar que el rango más extenso es del grupo C el cual poría ocupar la misma amplitud que los demás, luego en tanto a amplitud de rango le sigue la marca (B) y luego la marca (C). En tanto al rango intercuartil, lo encabeza la marca (B), lugo la (C) y para finalizar con la menos extensa la marca A. Con respecto a las medianas que presenta eel diagrama de cajas y bigotes, se puede evidenciar que enorden acendente se encuentran (B), (C) y (A) respetivamente.

diagrama de cajas y bigotes por tratamiento

boxplot(datos2$replica ~ datos2$spray, data = datos2, col = c("red", "blue", "green"), ylab = "replica", xlab = "spray")

En la grafica se puede observar que La mejor marca es la uno , con una cantidad minima de moscas muertas del 62% y un registro máximo de 75% y un centro de 69.5%,la segunda marca mas efectiva fue la tres con un valor minimo de 51% de moscas muertas y un máximo de 74% y un centro de 62.5, Finalmente, el spray menos efectivo correspondio a la marca 2 con un valor minimo de 50% de moscas muertas y un máximo de 70% y centro de 62.5

Como se observo en la gráfica de medias, estos interrogantes se responden probando la igualdad de todos los posibles pares de medias, para lo que se han propuesto varios métodos, conocidos como métodos de comparaciones múltiples o pruebas de rango múltiple(pruebas post hoc). La diferencia primordial entre dichos métodos radica en la potencia que tienen para detectar las diferencias entre las medias. Se dice que una prueba es más potente si es capaz de detectar diferencias más pequeñas.

Dentro de dichos métodos encontramos:

•Método LSD (diferencia mínima significativa)

•Método de Tukey

•Método de Duncan

Métodos de comparaciones múltiples o pruebas de rango múltiple (pruebas post hoc)

Método de Tukey

TukeyHSD(spray_anova2)
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = replica ~ spray, data = datos2)
## 
## $spray
##          diff        lwr       upr     p adj
## B-A -9.833333 -20.755528  1.088861 0.0808333
## C-A -6.166667 -17.088861  4.755528 0.3340612
## C-B  3.666667  -7.255528 14.588861 0.6654850

Luego de realizar las prueba de comparaciones múltiples de Tukey, se concluye que no existen diferencias significativas entre las marcas de Spray puesto que todos los valores de P son mayores de 0.05.

plot(TukeyHSD(spray_anova2))

Lo mencionado anteriormente se confirma con la grafica de la diferencia de medias(intervalos de confianza) en los distintos niveles del método.

Método de Duncan

library(agricolae)
metodos.Duncan <-duncan.test(spray_anova2, trt = "spray", group = T, console = T)
## 
## Study: spray_anova2 ~ "spray"
## 
## Duncan's new multiple range test
## for replica 
## 
## Mean Square Error:  53.04444 
## 
## spray,  means
## 
##    replica      std r       se Min Max   Q25  Q50   Q75
## A 69.00000 5.099020 6 2.973338  62  75 65.50 69.5 72.75
## B 59.16667 8.183316 6 2.973338  50  70 53.50 57.0 65.75
## C 62.83333 8.134290 6 2.973338  51  74 58.75 62.5 67.75
## 
## Alpha: 0.05 ; DF Error: 15 
## 
## Critical Range
##        2        3 
## 8.962607 9.395232 
## 
## Means with the same letter are not significantly different.
## 
##    replica groups
## A 69.00000      a
## C 62.83333     ab
## B 59.16667      b

De la salida anterior los tratamientos que comparten al menos una letra en la columna grupos se consideran no significativamente diferentes entre sí. Estos tratamientos forman grupos estadísticamente similares.

Mientras que los tratamientos que tienen letras diferentes en la columna grupos se consideran significativamente diferentes entre sí. Si un tratamiento tiene una letra diferente de otro, significa que hay una diferencia estadísticamente significativa en sus medias, para nuestro caso los tratamientos B con A, no comparten letra por lo tanto se consideran significativamente diferentes.

Lo cual se observa en la siguiente gráfica

plot(metodos.Duncan, variation="IQR" )

Verificación de los supuestos del modelo

La validez de los resultados obtenidos en cualquier análisis de varianza queda condicionado a que los supuestos del modelo se cumplan. Estos supuestos son: normalidad, varianza constante (igual varianza de los tratamientos) e independencia.

#Distribución normal de los residuos

Este supuesto se basa en la idea de que los residuos siguen una distribución normal. Para comprobar esto, primero analizamos una curva de densidad que muestra cómo se distribuyen las frecuencias de los residuos. Esta curva se asemeja a una campana de Gauss, lo que sugiere que los residuos podrían seguir una distribución normal.

Luego, representamos un gráfico de probabilidad normal donde los cuantiles observados de los residuos (mostrados como puntos negros) se acercan a la línea central, que representa los cuantiles de una distribución normal teórica. Este patrón indica que no hay evidencia de que los residuos incumplan el supuesto de normalidad.

library(car)
residuos<-residuals(spray_anova2)

par(mfrow=c(1,3))

dplot<-density(residuos)

plot(dplot,
      main="Curva de densidad observada",
      xlab = "Residuos",
      ylab = "Densidad")
polygon(dplot,
        col = "green",
        border = "black")

qqPlot(residuos,
       pch =20,
       main="QQ-Plot de los residuos",
       xlab = "Cuantiles teóricos",
       ylab="Cuantiles observados de los residuos")
## [1] 17 14

boxplot(residuos, col = c("red"), ylab = "residuos", main="Box-plot  de los residuos")

Sin embargo, para confirmar de manera más sólida que los residuos siguen una distribución normal, se realiza la prueba de Shapiro-Wilk.

Para la prueba Shapiro-Wilk para ratificar el cumplimiento del supuesto de normalidad de los residuos, evaluando las hipótesis:

•H o
Ho : Los residuos de la variable spray se distribuyen normalmente con media cero y varianza constante ei N(0,1) ei N(0,1) .

•H a
Ha : los residuos de la variable spray no siguen la distribución normal.

shapiro.test(residuals(spray_anova2))
## 
##  Shapiro-Wilk normality test
## 
## data:  residuals(spray_anova2)
## W = 0.96797, p-value = 0.7589

Por lo tanto no hay evidencia estadística suficiente para rechazar H 0
H0 , es decir se acepta la hipótesis nula, debido a que el valor de p (p-value = 0.7589 ) es mayor al valor del nivel de significancia (alfa=0.05), por lo que se concluye que los residuos de la variable porcentaje de parasitismo están normalmente distribuidos con media cero y varianza constante.

Homogeneidad de varianzas

Este es el supuesto de mayor relevancia que los residuos deben cumplir para que el modelo empleado sea válido.

Con un diagrama de cajas y bigotes se puede apreciar gráficamente que la dispersión de los residuos para cada tratamiento son muy distintas entre si, en el caso de esta inspección no se encontraron indicios de un incumplimiento de este supuesto.

boxplot(residuos ~ datos2$spray, 
        main = "Boxplot de Residuos por efectividad del spray para matar moscas", 
        xlab = "marca de spray",
        col="orange",
        ylab = "Residuos")

En la siguiente gráfica, se representan los valores predichos por el modelo para la variable efectividad de spray en función de la raíz cuadrada de los residuos estandarizados. En esta gráfica, no se observa ninguna tendencia aparente en la distribución de los valores, lo que sugiere que no hay evidencia de incumplimiento del supuesto de homogeneidad de varianzas.

Ahora graficamos los residuos

library(car)
color_1 <-colorRampPalette(c("yellow ", "blue", "yellow"))


plot(residuos, main = "Prueba de independencia", pch=20,cex = 2, col=color_1(120), ylab = "Residuos", xlab = " ")

En la grafica anterior se observan dispersos los puntos sin seguir un patron, esto es un indicio de homogeneidad de varianzas (entre más dispersos menos correlacionados)

Sin embargo, para validar de manera más sólida la homogeneidad de varianzas, se llevó a cabo la prueba de bartlett y la prueba de Levene.

Donde las hipotesis correspondientes son:

•H o
Ho : Los residuos de la variable spray son iguales para la efectividad para matar moscas.

•H a
Ha : Existen por lo menos dos varianzas distintas para los ditintos métodos de efectividad.

Es decir,

•H o
Ho : σ 2 A =σ 2 B =σ 2 C =σ
σA2=σB2=σC2=σ

•H a
Ha : σ 2 i =σ 2 j
σi2=σj2 para i,j∈{A,B,C} i,j∈{A,B,C} e i≠j i≠j

library(stats)
bartlett.test(residuos ~ datos2$spray)
## 
##  Bartlett test of homogeneity of variances
## 
## data:  residuos by datos2$spray
## Bartlett's K-squared = 1.1889, df = 2, p-value = 0.5519

De acuerdo al valor arrojado por la prueba de bartlett, valor de p ( 0.5519) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, llegando a la misma conclusión anterior (grafica anterior).

library(stats)
leveneTest(residuos ~ datos2$spray)
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  2  0.5288 0.5999
##       15

De acuerdo al valor arrojado por la prueba de levene, valor de p (0.5999) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, confirmando las conclusiones obtenidas en los items anteriores.

#Independencia de los residuos

durbinWatsonTest(spray_anova2) 
##  lag Autocorrelation D-W Statistic p-value
##    1     -0.05414747       2.04919   0.768
##  Alternative hypothesis: rho != 0

Puesto que el valor de DW es aproximadamente igual a 2 (1-Rho) donde Rho es la autocorrelación de la muestra de los residuos.

Se debe tener en cuenta que si el valor del estadístico Durbin Watson (DW) está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si tiene un valor de 4 existe autocorrelación perfecta negativa.

Al realizar la prueba de independencia de residuos para la variable spray se determinó que los residuos no están correlacionados, debido a que el DW está próximo a 2 y el valor de p (p-value = 0.7) es superior al nivel de significancia de 5% (α α =0.05) por lo que se concluye que existe independencia de los residuos.

Ejercicio 4

En un centro de investigación se realiza un estudio para comparar varios tratamientos que, al aplicarse previamente a los frijoles crudos, reducen su tiempo de cocción. Estos tratamientos son a base de bicarbonato de sodio (NaHCO3 ) y cloruro de sodio o sal común (NaCl). El primer tratamiento es el de control, que consiste en no aplicar ningún tratamiento. El tratamiento T2 es el remojo en agua con bicarbonato de sodio, el T3 es remojar en agua con sal común y el T4 es remojar en agua con una combinación de ambos ingredientes en proporciones iguales. La variable de respuesta es el tiempo de cocción en minutos. Los datos se muestran en la siguiente tabla:

library(readxl)
datos3 <- read_excel("C:/Users/angel/Documents/ajumele4.xlsx")
datos3
## # A tibble: 28 × 2
##    minutos tratamiento
##      <dbl> <chr>      
##  1     213 control    
##  2     214 control    
##  3     204 control    
##  4     208 control    
##  5     212 control    
##  6     200 control    
##  7     207 control    
##  8      76 A          
##  9      85 A          
## 10      74 A          
## # ℹ 18 more rows

Analisis Descriptivo

Veamos el número de observaciones(replicas) por tratamiento

conteo_valorestratamiento <- table(datos3$tratamiento)
conteo_valorestratamiento
## 
##       A       B       C control 
##       7       7       7       7

Dado que el número de observaciones por tratamiento es el mismo, se puede concluir que es un diseño balanceado.

Medidas descriptivas de la variable dependiente

library(summarytools)
summarytools::descr(datos3[,1])
## Descriptive Statistics  
## datos3$minutos  
## N: 28  
## 
##                     minutos
## ----------------- ---------
##              Mean    108.54
##           Std.Dev     59.48
##               Min     55.00
##                Q1     70.50
##            Median     82.00
##                Q3    146.00
##               Max    214.00
##               MAD     18.53
##               IQR     46.75
##                CV      0.55
##          Skewness      1.01
##       SE.Skewness      0.44
##          Kurtosis     -0.87
##           N.Valid     28.00
##         Pct.Valid    100.00

El tiempo de cocción promedio fue de 108.54 minutos, con una desviación estándar de 59.48 minutos, lo que indica una variabilidad considerable en los tiempos de cocción registrados. Los tiempos de cocción oscilaron entre un mínimo de 55 minutos y un máximo de 214 minutos. La mediana, que divide los datos en dos mitades iguales, fue de 82.00 minutos. El rango intercuartil (IQR) fue de 46.75 minutos, lo que sugiere que la mitad de los datos se encuentran dentro de este intervalo. Además, la asimetría (skewness) de 1.01 indica cierta asimetría hacia la derecha en la distribución, mientras que la curtosis (kurtosis) de -0.87. El coeficiente de variación (CV) fue de 0.55, lo que indica una moderada variabilidad en relación con la media.

Medidas descriptivas por Tratamientos

resultados_descriptivos3 <- aggregate(minutos ~ tratamiento, data = datos3, summary)
print(resultados_descriptivos3)
##   tratamiento minutos.Min. minutos.1st Qu. minutos.Median minutos.Mean
## 1           A     74.00000        75.50000       78.00000     78.85714
## 2           B     55.00000        59.00000       63.00000     61.42857
## 3           C     79.00000        83.00000       85.00000     85.57143
## 4     control    200.00000       205.50000      208.00000    208.28571
##   minutos.3rd Qu. minutos.Max.
## 1        82.00000     85.00000
## 2        63.50000     67.00000
## 3        88.50000     92.00000
## 4       212.50000    214.00000

T1: El tratamiento de control, que no involucra ningún tratamiento adicional, mostró un tiempo de cocción promedio de 208.29 minutos. Los tiempos de cocción oscilaron entre 200 y 214 minutos, con un rango intercuartil (IQR) de 7 minutos. El tiempo de cocción mediano fue de 208 minutos.

T2: El tratamiento que implicaba el remojo en agua con bicarbonato de sodio (NaHCO3) promedió un tiempo de cocción de 78.86 minutos. Los tiempos de cocción variaron entre 74 y 85 minutos, con un IQR de 6.5 minutos. La mediana del tiempo de cocción fue de 78 minutos.

T3: El tratamiento que implicaba el remojo en agua con sal común (NaCl) presentó un tiempo de cocción promedio de 61.43 minutos. Los tiempos de cocción se distribuyeron entre 55 y 67 minutos, con un IQR de 4.5 minutos. La mediana del tiempo de cocción fue de 63 minutos.

T4: El tratamiento que combinaba bicarbonato de sodio (NaHCO3) y sal común (NaCl) en proporciones iguales registró un tiempo de cocción promedio de 85.57 minutos. Los tiempos de cocción variaron entre 79 y 92 minutos, con un IQR de 5.5 minutos. La mediana del tiempo de cocción fue de 85 minutos.

Realización del anova

tratamiento_anova3 <- aov(minutos ~ tratamiento, data = datos3)
resumen_anova3 <- summary(tratamiento_anova3)
print(resumen_anova3)
##             Df Sum Sq Mean Sq F value Pr(>F)    
## tratamiento  3  95041   31680    1559 <2e-16 ***
## Residuals   24    488      20                   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

El análisis de varianza (ANOVA) realizado revela diferencias significativas en los tiempos de cocción entre los diferentes tratamientos (T1, T2, T3 y T4). La prueba de ANOVA arrojó un valor F de 1559 con un p-valor extremadamente bajo (p < 2e-16), lo que indica una fuerte evidencia de que al menos un tratamiento tiene un efecto significativo en el tiempo de cocción de los frijoles crudos.

La hipótesis nula en este contexto sostiene que no hay diferencias significativas entre los tratamientos, pero los resultados del ANOVA sugieren que esta hipótesis debe ser rechazada. En otras palabras, existe una variación significativa en los tiempos de cocción observados entre los diferentes tratamientos. Esto implica que al menos uno de los tratamientos es efectivo para reducir el tiempo de cocción en comparación con los demás.

1. ¿De qué manera el experimentador debe aleatorizar los experimentos y el material experimental? El experimentador debe aleatorizar los experimentos y el material experimental utilizando un diseño completamente al azar.

2. Dé ejemplos de factores que deben estar fijos durante las pruebas experimentales, para que no afecten los resultados y las conclusiones. Los factores que deben permanecer fijos durante los experimentos deben ser la aleatorización de la muestra, la aplicación del ratamiento y la medición del tiempo para no alterar o sesgar resultados y por lo tanto los analisis y conclusiones

3. Formule y pruebe la hipótesis de que las medias de los tratamientos son iguales.

H0 :μ1 =μ2 =μ3 =μ4 = μ El promedio de porcentaje de tiempo son iguales.

HA :μi ≠μ j para algún i ≠ j El promedio de porcentaje de tiempo no son iguales.

Modelo estadístico al AZAR

si H0 < 0,05 se rechaza la hipotesis nula.

si H0 > 0,05 no se rechaza la hipotesis nula

Según el análisis de ANOVA, existen diferencias significativas entre al menos dos de las las medias de los tratamientos esto se infiere ya que el Pvalor(2e-16)<0,05.

boxplot(datos3$minutos ~ datos3$tratamiento, data = datos3, col = c("red", "blue", "green","orange"), ylab = "minutos", xlab = "tratamiento")

En la grafica se puede observar que el mejor tratamiento es C (remojar en agua con sal comun)ya que su promedio de minutos en tiempo de coccion es menor, seguido de B (agua con bicarbonato de sodio) y por ultimo “control” (mezcla delos ingredientes de B y C)

4. Obtenga el diagrama de caja y el gráfico de medias, después interprételos.

De acuerdo a lo encontrado en este diagrama se ven diferencias significativas entre los tratamientos que se le aplicó alguna sustancia adicional, símismo el control o tratamiento que no se le aplicó ningun tipo de sustancia es considerablemente mayor con respecto a los demás. En tanto a los rangos intercuartiles se puede inferir que son e valor similar. Se puede evidenciar que el mejor metodo para reducir el tiempo de coccion de los frijoles es remojarlos con agua y sal comun seguido por frijoles remojados por bicarbonato de sodio y con una mayor duración para los frijoles con los dos tratamientos anteriores combinados. Clara mente se reddujo significativamente la cocción de los frijoles.

Métodos de comparaciones múltiples o pruebas de rango múltiple (pruebas post hoc)

Método de Tukey

TukeyHSD(tratamiento_anova3)
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = minutos ~ tratamiento, data = datos3)
## 
## $tratamiento
##                 diff          lwr       upr     p adj
## B-A       -17.428571 -24.07568671 -10.78146 0.0000010
## C-A         6.714286   0.06717044  13.36140 0.0471059
## control-A 129.428571 122.78145615 136.07569 0.0000000
## C-B        24.142857  17.49574187  30.78997 0.0000000
## control-B 146.857143 140.21002758 153.50426 0.0000000
## control-C 122.714286 116.06717044 129.36140 0.0000000

B vs. A: Existe una diferencia significativa en el tiempo de cocción entre el tratamiento B (remojo en agua con bicarbonato de sodio) y el tratamiento de control A (sin tratamiento adicional). El tiempo de cocción promedio es significativamente más corto en el tratamiento B en comparación con A (diferencia de -129.43 minutos).

C vs. A: La diferencia en el tiempo de cocción entre el tratamiento C (remojo en agua con sal común) y el tratamiento de control A también es significativa. El tiempo de cocción promedio es significativamente más corto en el tratamiento C en comparación con A (diferencia de -146.86 minutos).

control vs. A: El tratamiento “control” (remojo en agua con una combinación de bicarbonato de sodio y sal común) también muestra una diferencia significativa en el tiempo de cocción en comparación con el tratamiento de control A. El tiempo de cocción promedio es significativamente más corto en el tratamiento control en comparación con A (diferencia de -122.71 minutos).

C vs. B: Se observa una diferencia significativa en el tiempo de cocción entre el tratamiento C y el tratamiento B. El tiempo de cocción promedio es significativamente más corto en el tratamiento C en comparación con B (diferencia de -17.43 minutos).

control vs. B: La diferencia entre el tratamiento control y B es significativa, pero con un p-valor marginal (0.0471). Esto indica que el tiempo de cocción en “control” tiende a ser más corto en comparación con B, pero con menos evidencia estadística que en las otras comparaciones.

control vs. C: Existe una diferencia significativa en el tiempo de cocción entre el tratamiento “control” y el tratamiento C. El tiempo de cocción promedio es significativamente más largo en “control” en comparación con C (diferencia de 24.14 minutos).

plot(TukeyHSD(tratamiento_anova3))

Lo mencionado anteriormente se confirma con la grafica de la diferencia de medias(intervalos de confianza) en los distintos niveles del método.

library(agricolae)
metodos.Duncan <-duncan.test(tratamiento_anova3, trt = "tratamiento", group = T, console = T)
## 
## Study: tratamiento_anova3 ~ "tratamiento"
## 
## Duncan's new multiple range test
## for minutos 
## 
## Mean Square Error:  20.32143 
## 
## tratamiento,  means
## 
##           minutos      std r       se Min Max   Q25 Q50   Q75
## A        78.85714 4.180453 7 1.703837  74  85  75.5  78  82.0
## B        61.42857 4.157609 7 1.703837  55  67  59.0  63  63.5
## C        85.57143 4.503967 7 1.703837  79  92  83.0  85  88.5
## control 208.28571 5.122313 7 1.703837 200 214 205.5 208 212.5
## 
## Alpha: 0.05 ; DF Error: 24 
## 
## Critical Range
##        2        3        4 
## 4.973148 5.223301 5.383910 
## 
## Means with the same letter are not significantly different.
## 
##           minutos groups
## control 208.28571      a
## C        85.57143      b
## A        78.85714      c
## B        61.42857      d

De la salida anterior los tratamientos que comparten al menos una letra en la columna grupos se consideran no significativamente diferentes entre sí. Estos tratamientos forman grupos estadísticamente similares.

Mientras que los tratamientos que tienen letras diferentes en la columna grupos se consideran significativamente diferentes entre sí. Si un tratamiento tiene una letra diferente de otro, significa que hay una diferencia estadísticamente significativa en sus medias, para nuestro caso todos los tratamientos no comparten letra por lo que se consideran significativamente diferentes.

Lo cual se observa en la siguiente gráfica

plot(metodos.Duncan, variation="IQR" )

Verificación de los supuestos del modelo

La validez de los resultados obtenidos en cualquier análisis de varianza queda condicionado a que los supuestos del modelo se cumplan. Estos supuestos son: normalidad, varianza constante (igual varianza de los tratamientos) e independencia.

Distribución normal de los residuos

Este supuesto se basa en la idea de que los residuos siguen una distribución normal. Para comprobar esto, primero analizamos una curva de densidad que muestra cómo se distribuyen las frecuencias de los residuos. Esta curva se asemeja a una campana de Gauss, lo que sugiere que los residuos podrían seguir una distribución normal.

Luego, representamos un gráfico de probabilidad normal donde los cuantiles observados de los residuos (mostrados como puntos negros) se acercan a la línea central, que representa los cuantiles de una distribución normal teórica. Este patrón indica que no hay evidencia de que los residuos incumplan el supuesto de normalidad.

library(car)
residuos<-residuals(tratamiento_anova3)

par(mfrow=c(1,3))

dplot<-density(residuos)

plot(dplot,
      main="Curva de densidad observada",
      xlab = "Residuos",
      ylab = "Densidad")
polygon(dplot,
        col = "green",
        border = "black")

qqPlot(residuos,
       pch =20,
       main="QQ-Plot de los residuos",
       xlab = "Cuantiles teóricos",
       ylab="Cuantiles observados de los residuos")
## [1]  6 27

boxplot(residuos, col = c("red"), ylab = "residuos", main="Box-plot  de los residuos")

Sin embargo, para confirmar de manera más sólida que los residuos siguen una distribución normal, se realiza la prueba de Shapiro-Wilk.

Para la prueba Shapiro-Wilk para ratificar el cumplimiento del supuesto de normalidad de los residuos, evaluando las hipótesis:

•H o
Ho : Los residuos de la variable tratamiento se distribuyen normalmente con media cero y varianza constante ei N(0,1) ei N(0,1) .

•H a
Ha : los residuos de la variable tratamiento no siguen la distribución normal.

shapiro.test(residuals(tratamiento_anova3))
## 
##  Shapiro-Wilk normality test
## 
## data:  residuals(tratamiento_anova3)
## W = 0.95991, p-value = 0.3469

Por lo tanto no hay evidencia estadística suficiente para rechazar H 0
H0 , es decir se acepta la hipótesis nula, debido a que el valor de p (p-value = 0.3469 ) es mayor al valor del nivel de significancia (alfa=0.05), por lo que se concluye que los residuos de la variable tratamiento están normalmente distribuidos con media cero y varianza constante.

#Homogeneidad de varianzas

Este es el supuesto de mayor relevancia que los residuos deben cumplir para que el modelo empleado sea válido.

Con un diagrama de cajas y bigotes se puede apreciar gráficamente que la dispersión de los residuos para cada tratamiento son muy distintas entre si, en el caso de esta inspección no se encontraron indicios de un incumplimiento de este supuesto.

boxplot(residuos ~ datos3$tratamiento, 
        main = "Boxplot de Residuos por tratamiento", 
        xlab = "tratamiento de cocción",
        col="orange",
        ylab = "Residuos")

En la siguiente gráfica, se representan los valores predichos por el modelo para la variable tratamiento del material en función de la raíz cuadrada de los residuos estandarizados. En esta gráfica, no se observa ninguna tendencia aparente en la distribución de los valores, lo que sugiere que no hay evidencia de incumplimiento del supuesto de homogeneidad de varianzas.

Ahora graficamos los residuos

library(car)
color_1 <-colorRampPalette(c("yellow ", "blue", "yellow"))


plot(residuos, main = "Prueba de independencia", pch=20,cex = 2, col=color_1(120), ylab = "Residuos", xlab = " ")

En la grafica anterior se observan dispersos los puntos sin seguir un patron, esto es un indicio de homogeneidad de varianzas (entre más dispersos menos correlacionados)

Sin embargo, para validar de manera más sólida la homogeneidad de varianzas, se llevó a cabo la prueba de bartlett y la prueba de Levene.

Donde las hipotesis correspondientes son:

•H o
Ho : Los residuos de la variable tratamiento son iguales para el tiempo de cocción.

•H a
Ha : Existen por lo menos dos varianzas distintas para los ditintos tiempos de cocción según los tratamientos.

Es decir,

•H o
Ho : σ 2 control =σ 2 A =σ 2 B =σ 2 C =σ 2
σcontrol2=σA2=σB2=σC2=σ2

•H a
Ha : σ 2 i =σ 2 j
σi2=σj2 para i,j∈{control,A,B,C} i,j∈{control,A,B,C} e i≠j i≠j

library(stats)
bartlett.test(residuos ~ datos3$tratamiento)
## 
##  Bartlett test of homogeneity of variances
## 
## data:  residuos by datos3$tratamiento
## Bartlett's K-squared = 0.3302, df = 3, p-value = 0.9543

De acuerdo al valor arrojado por la prueba de bartlett, valor de p ( 0.9543) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, llegando a la misma conclusión anterior (grafica anterior).

library(stats)
leveneTest(residuos ~ datos3$tratamiento)
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  3  0.1631 0.9201
##       24

De acuerdo al valor arrojado por la prueba de levene, valor de p (0.9201) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, confirmando las conclusiones obtenidas en los items anteriores.

Independencia de los residuos

durbinWatsonTest(tratamiento_anova3)
##  lag Autocorrelation D-W Statistic p-value
##    1      -0.4142606       2.74274   0.122
##  Alternative hypothesis: rho != 0

Puesto que el valor de DW es aproximadamente igual a 2 (1-Rho) donde Rho es la autocorrelación de la muestra de los residuos.

Se debe tener en cuenta que si el valor del estadístico Durbin Watson (DW) está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si tiene un valor de 4 existe autocorrelación perfecta negativa.

Al realizar la prueba de independencia de residuos para la variable tratamiento se determinó que los residuos no están correlacionados, debido a que el DW está próximo a 2 y el valor de p (p-value = 0.134) es superior al nivel de significancia de 5% (α α =0.05) por lo que se concluye que existe independencia de los residuos.

Ejercicio 5

Una compañía farmacéutica desea evaluar el efecto que tiene la cantidad de almidón en la dureza de las tabletas. Se decidió producir lotes con una cantidad determinada de almidón, y que las cantidades de almidón a aprobar fueran 2%, 5% y 10%. La variable de respuesta sería el promedio de la dureza de 20 tabletas de cada lote. Se hicieron 4 réplicas por tratamiento y se obtuvieron los siguientes resultados:

library(readxl)
datos4 <- read_excel("C:/Users/angel/Documents/ajumele5.xlsx")
datos4
## # A tibble: 12 × 2
##    dureza porcentaje
##     <dbl> <chr>     
##  1    4.3 2p        
##  2    5.2 2p        
##  3    4.8 2p        
##  4    4.5 2p        
##  5    6.5 5p        
##  6    7.3 5p        
##  7    6.9 5p        
##  8    6.1 5p        
##  9    9   10p       
## 10    7.8 10p       
## 11    8.5 10p       
## 12    8.1 10p

Analisis descriptivo

Veamos el número de observaciones(replicas) por tratamiento

conteo_valoresporcentaje <- table(datos4$porcentaje)
conteo_valoresporcentaje
## 
## 10p  2p  5p 
##   4   4   4

Dado que el número de observaciones por tratamiento es el mismo, se puede concluir que es un diseño balanceado.

Medidas descriptivas de la variable dependiente

library(summarytools)
summarytools::descr(datos4[,1])
## Descriptive Statistics  
## datos4$dureza  
## N: 12  
## 
##                     dureza
## ----------------- --------
##              Mean     6.58
##           Std.Dev     1.62
##               Min     4.30
##                Q1     5.00
##            Median     6.70
##                Q3     7.95
##               Max     9.00
##               MAD     2.15
##               IQR     2.77
##                CV     0.25
##          Skewness    -0.05
##       SE.Skewness     0.64
##          Kurtosis    -1.60
##           N.Valid    12.00
##         Pct.Valid   100.00

El promedio de dureza fue de 6.58 con una desviación estándar de 1.62. Las tabletas mostraron una variabilidad en la dureza, con valores mínimos de 4.30 y máximos de 9.00. El primer cuartil (Q1) se situó en 5.00, y el tercer cuartil (Q3) en 7.95, lo que indica que la mayoría de las tabletas se encuentran en ese rango de dureza. El coeficiente de variación (CV) fue del 25%, lo que sugiere una moderada dispersión de los datos en relación con la media. Además, la distribución de la dureza parece cercana a una distribución simétrica, con un ligero sesgo negativo y una curtosis negativa.

Medidas descriptivas por Tratamientos

resultados_descriptivos4 <- aggregate(dureza ~ porcentaje, data = datos4, summary)
print(resultados_descriptivos4)
##   porcentaje dureza.Min. dureza.1st Qu. dureza.Median dureza.Mean
## 1        10p       7.800          8.025         8.300       8.350
## 2         2p       4.300          4.450         4.650       4.700
## 3         5p       6.100          6.400         6.700       6.700
##   dureza.3rd Qu. dureza.Max.
## 1          8.625       9.000
## 2          4.900       5.200
## 3          7.000       7.300

2% de Almidón: El promedio de dureza para las tabletas con un contenido de almidón del 2% fue de 4.70 con una mediana de 4.65. La dureza varió desde un mínimo de 4.30 hasta un máximo de 5.20.

5% de Almidón: Para las tabletas con un contenido de almidón del 5%, el promedio de dureza fue de 6.70, siendo la mediana también 6.70. La variabilidad en la dureza fue menor en comparación con el grupo del 2%, oscilando entre 6.10 y 7.30.

10% de Almidón: En el caso de las tabletas con un contenido de almidón del 10%, se observó un promedio de dureza de 8.35 y una mediana de 8.30. La dureza varió desde 7.80 hasta 9.00, mostrando una mayor uniformidad en comparación con los otros grupos.

Realización del anova

porcentaje_anova4 <- aov(dureza ~ porcentaje, data = datos4)
resumen_anova4 <- summary(porcentaje_anova4)
print(resumen_anova4)
##             Df Sum Sq Mean Sq F value   Pr(>F)    
## porcentaje   2  26.73   13.36    58.1 7.16e-06 ***
## Residuals    9   2.07    0.23                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

El análisis de varianza (ANOVA) aplicado a los datos de dureza de las tabletas con diferentes concentraciones de almidón (2%, 5%, y 10%) arroja resultados significativos. La variable “porcentaje” (concentración de almidón) tiene un efecto estadísticamente significativo en la dureza de las tabletas (F = 82.57, p < 0.001). Esto sugiere que al menos uno de los niveles de concentración de almidón tiene un efecto significativo en la dureza de las tabletas.

1. ¿Hay evidencia suficiente de que el almidón influye en la dureza en las tabletas?

H0 = Todos los tratamientos no presentan efecto en la dureza, es decir, son equivalentes. Ha = Al menos uno de los tratamientos (% de almidón) presenta efecto en la dureza, es decir, son diferentes.

Criterio de decisión: Si el P-valor<alfa, se rechaza H0.

Teniendo en cuenta el análisis de la varianza se tiene que el Pvalor(7.16e-06)<0.05, se rechaza H0 y se por tanto se acepta la hipotesis alternativa en la que al menos uno de los tratamientos con almidón presenta efecto en la dureza, es decir, son diferentes.

2. ¿Las diferencias muestrales hacen obvia la presencia de diferencias poblacionales?

Si, ya que los datos de cada tratamiento se mueven por rangos de valores diferentes, los que nos llevaría a una media no muy exacta observando variabilidad en los datos, por ejemplo se ve que uno de los tratamientos tiene un rango de 15 a 16, el siguiente de 25 a 26, y el ultimo de 32 a 33 aproximadamente siendo estos los niveles de nitrogeno adicionados.

diagrama de cajas y bigotes por tratamiento

boxplot(datos4$dureza ~ datos4$porcentaje, data = datos4, col = c("red", "blue", "green"), ylab = "dureza", xlab = "porcentaje")

De la grafica anterior se puede evidenciar que existen diferencias en los promedios de porcentaje de todos los tratamientos para analizar la influencia del almidon el la dureza.

Como se ha rechazado la hipótesis de igualdad de medias con el test ANOVA, el interés está en averiguar cuál o cuáles pares de medias son diferentes entre sí.

Como se observo en la gráfica de medias, estos interrogantes se responden probando la igualdad de todos los posibles pares de medias, para lo que se han propuesto varios métodos, conocidos como métodos de comparaciones múltiples o pruebas de rango múltiple(pruebas post hoc). La diferencia primordial entre dichos métodos radica en la potencia que tienen para detectar las diferencias entre las medias. Se dice que una prueba es más potente si es capaz de detectar diferencias más pequeñas.

Dentro de dichos métodos encontramos:

•Método de Tukey

•Método de Duncan

Métodos de comparaciones múltiples o pruebas de rango múltiple (pruebas post hoc)

Método de Tukey

TukeyHSD(porcentaje_anova4)
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = dureza ~ porcentaje, data = datos4)
## 
## $porcentaje
##         diff       lwr        upr     p adj
## 2p-10p -3.65 -4.596815 -2.7031848 0.0000052
## 5p-10p -1.65 -2.596815 -0.7031848 0.0022940
## 5p-2p   2.00  1.053185  2.9468152 0.0006016

Luego de realizar las prueba de comparaciones múltiples de Tukey, se concluye que existen diferencia significativas entre los los porcentajes de almidón 2p y 10p con una diferencia de -3.65 cuyo intervalo de confianza del 95% para la diferencia es (-4.5, -2.7) y un p-valor de 0.0000052, lo que resulta significativo (menor de 0.05), es decir no se dispone de evidencia suficiente para considerar que los promedios de porcentaje en los dos tratamiento son iguales.

También se estima que existen diferencia significativas entre los métodos de ensamble 5p y 10p con una diferencia de -1.65 cuyo intervalo de confianza del 95% para la diferencia es (-2.6, -0.7) y un p-valor de 0.002, lo que resulta significativo (menor de 0.05), es decir no se dispone de evidencia suficiente para considerar que los promedios de desgaste en los dos tratamiento son iguales.

También se estima que existen diferencia significativas entre los métodos de ensamble 5p y 2p con una diferencia de 2.00 cuyo intervalo de confianza del 95% para la diferencia es (1.0, 2.9) y un p-valor de 0.0006, lo que resulta significativo (menor de 0.05), es decir no se dispone de evidencia suficiente para considerar que los promedios de desgaste en los dos tratamiento son iguales.

Para la comparación de los demás tratamientos(métodos de ensamble) no resulto significativo.

plot(TukeyHSD(porcentaje_anova4))

Lo mencionado anteriormente se confirma con la grafica de la diferencia de medias(intervalos de confianza) en los distintos niveles del método.

Método de Duncan

library(agricolae)
metodos.Duncan <-duncan.test(porcentaje_anova4, trt = "porcentaje", group = T, console = T)
## 
## Study: porcentaje_anova4 ~ "porcentaje"
## 
## Duncan's new multiple range test
## for dureza 
## 
## Mean Square Error:  0.23 
## 
## porcentaje,  means
## 
##     dureza       std r        se Min Max   Q25  Q50   Q75
## 10p   8.35 0.5196152 4 0.2397916 7.8 9.0 8.025 8.30 8.625
## 2p    4.70 0.3915780 4 0.2397916 4.3 5.2 4.450 4.65 4.900
## 5p    6.70 0.5163978 4 0.2397916 6.1 7.3 6.400 6.70 7.000
## 
## Alpha: 0.05 ; DF Error: 9 
## 
## Critical Range
##         2         3 
## 0.7671348 0.8006971 
## 
## Means with the same letter are not significantly different.
## 
##     dureza groups
## 10p   8.35      a
## 5p    6.70      b
## 2p    4.70      c

De la salida anterior los tratamientos que comparten al menos una letra en la columna grupos se consideran no significativamente diferentes entre sí. Estos tratamientos forman grupos estadísticamente similares.

Mientras que los tratamientos que tienen letras diferentes en la columna grupos se consideran significativamente diferentes entre sí. Si un tratamiento tiene una letra diferente de otro, significa que hay una diferencia estadísticamente significativa en sus medias, para nuestro caso todos los tratamientos se consideran significativamente diferentes.

Lo cual se observa en la siguiente gráfica

plot(metodos.Duncan, variation="IQR" )

Verificación de los supuestos del modelo

La validez de los resultados obtenidos en cualquier análisis de varianza queda condicionado a que los supuestos del modelo se cumplan. Estos supuestos son: normalidad, varianza constante (igual varianza de los tratamientos) e independencia.

Distribución normal de los residuos

Este supuesto se basa en la idea de que los residuos siguen una distribución normal. Para comprobar esto, primero analizamos una curva de densidad que muestra cómo se distribuyen las frecuencias de los residuos. Esta curva se asemeja a una campana de Gauss, lo que sugiere que los residuos podrían seguir una distribución normal.

Luego, representamos un gráfico de probabilidad normal donde los cuantiles observados de los residuos (mostrados como puntos negros) se acercan a la línea central, que representa los cuantiles de una distribución normal teórica. Este patrón indica que no hay evidencia de que los residuos incumplan el supuesto de normalidad.

library(car)
residuos<-residuals(porcentaje_anova4)

par(mfrow=c(1,3))

dplot<-density(residuos)

plot(dplot,
      main="Curva de densidad observada",
      xlab = "Residuos",
      ylab = "Densidad")
polygon(dplot,
        col = "green",
        border = "black")

qqPlot(residuos,
       pch =20,
       main="QQ-Plot de los residuos",
       xlab = "Cuantiles teóricos",
       ylab="Cuantiles observados de los residuos")
## [1] 9 8

boxplot(residuos, col = c("red"), ylab = "residuos", main="Box-plot  de los residuos")

Sin embargo, para confirmar de manera más sólida que los residuos siguen una distribución normal, se realiza la prueba de Shapiro-Wilk.

Para la prueba Shapiro-Wilk para ratificar el cumplimiento del supuesto de normalidad de los residuos, evaluando las hipótesis:

•H o
Ho : Los residuos de la variable porcentaje se distribuyen normalmente con media cero y varianza constante ei N(0,1) ei N(0,1) .

•H a
Ha : los residuos de la variable porcentaje no siguen la distribución normal.

shapiro.test(residuals(porcentaje_anova4))
## 
##  Shapiro-Wilk normality test
## 
## data:  residuals(porcentaje_anova4)
## W = 0.93444, p-value = 0.4295

Por lo tanto no hay evidencia estadística suficiente para rechazar H 0
H0 , es decir se acepta la hipótesis nula, debido a que el valor de p (p-value = 0.4295 ) es mayor al valor del nivel de significancia (alfa=0.05), por lo que se concluye que los residuos de la variable porcentaje están normalmente distribuidos con media cero y varianza constante.

Homogeneidad de varianzas

Este es el supuesto de mayor relevancia que los residuos deben cumplir para que el modelo empleado sea válido.

Con un diagrama de cajas y bigotes se puede apreciar gráficamente que la dispersión de los residuos para cada tratamiento muestran una tendencia de los valores.

boxplot(residuos ~ datos4$porcentaje, 
        main = "Boxplot de Residuos por porcentaje de almidon", 
        xlab = "porcentaje de almidon",
        col="orange",
        ylab = "Residuos")

En la siguiente gráfica, se representan los valores predichos por el modelo para la variable porcentaje del material en función de la raíz cuadrada de los residuos estandarizados. En esta gráfica, no se observa ninguna tendencia aparente en la distribución de los valores, lo que sugiere que no hay evidencia de incumplimiento del supuesto de homogeneidad de varianzas.

Ahora graficamos los residuos

library(car)
color_1 <-colorRampPalette(c("yellow ", "blue", "yellow"))


plot(residuos, main = "Prueba de independencia", pch=20,cex = 2, col=color_1(120), ylab = "Residuos", xlab = " ")

En la grafica anterior se observan dispersos los puntos sin seguir un patron, esto es un indicio de homogeneidad de varianzas (entre más dispersos menos correlacionados)

Sin embargo, para validar de manera más sólida la homogeneidad de varianzas, se llevó a cabo la prueba de bartlett y la prueba de Levene.

Donde las hipotesis correspondientes son:

•H o
Ho : Los residuos de la variable porcentaje de almidon son iguales para la dureza de los medicamentos.

•H a
Ha : Existen por lo menos dos varianzas distintas para lostratamientos para evaluar la dureza.

Es decir,

•H o
Ho : σ 2 2p =σ 2 5p =σ 2 10p =σ 2
σ2p2=σ5p2=σ10p2=σ

•H a
Ha : σ 2 i =σ 2 j
σi2=σj2 para i,j∈{2p,5p,10p} i,j∈{2p,5p,10p} e i≠j i≠j

library(stats)
bartlett.test(residuos ~ datos4$porcentaje)
## 
##  Bartlett test of homogeneity of variances
## 
## data:  residuos by datos4$porcentaje
## Bartlett's K-squared = 0.25398, df = 2, p-value = 0.8807

De acuerdo al valor arrojado por la prueba de bartlett, valor de p ( 0.8807) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, llegando a la misma conclusión anterior (grafica anterior).

library(stats)
leveneTest(residuos ~ datos4$porcentaje)
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  2  0.2667 0.7718
##        9

De acuerdo al valor arrojado por la prueba de levene, valor de p (0.7718) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, confirmando las conclusiones obtenidas en los items anteriores.

Independencia de los residuos

durbinWatsonTest(porcentaje_anova4)
##  lag Autocorrelation D-W Statistic p-value
##    1      -0.5398551      2.972222   0.166
##  Alternative hypothesis: rho != 0

Puesto que el valor de DW es aproximadamente igual a 2 (1-Rho) donde Rho es la autocorrelación de la muestra de los residuos.

Se debe tener en cuenta que si el valor del estadístico Durbin Watson (DW) está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si tiene un valor de 4 existe autocorrelación perfecta negativa.

Al realizar la prueba de independencia de residuos para la variable porcentaje se determinó que los residuos no están correlacionados, debido a que el DW está próximo a 2 y el valor de p (p-value = 0.19) es superior al nivel de significancia de 5% (α α =0.05) por lo que se concluye que existe independencia de los residuos.

Ejercicio 6

Los datos que se presentan enseguida son rendimientos en toneladas por hectárea de un pasto con tres niveles de fertilización nitrogenada. El diseño fue completamente aleatorizado, con cinco repeticiones por tratamiento.

library(readxl)
datos5 <- read_excel("C:/Users/angel/Documents/ajumele6.xlsx")
datos5
## # A tibble: 15 × 2
##    productividad nitrogeno
##            <dbl> <chr>    
##  1          14.8 A        
##  2          14.7 A        
##  3          14.7 A        
##  4          14.5 A        
##  5          15.1 A        
##  6          25.2 B        
##  7          25.4 B        
##  8          25.1 B        
##  9          25.0 B        
## 10          25.3 B        
## 11          32.6 C        
## 12          32.5 C        
## 13          32.3 C        
## 14          32.7 C        
## 15          32.1 C

Analisis Descriptivo

Veamos el número de observaciones(replicas) por tratamiento

conteo_valoresnitrogeno <- table(datos5$nitrogeno)
conteo_valoresnitrogeno
## 
## A B C 
## 5 5 5

Dado que el número de observaciones por tratamiento es el mismo, se puede concluir que es un diseño balanceado.

Medidas descriptivas de la variable dependiente

library(summarytools)
summarytools::descr(datos5[,1])
## Descriptive Statistics  
## datos5$productividad  
## N: 15  
## 
##                     productividad
## ----------------- ---------------
##              Mean           24.13
##           Std.Dev            7.51
##               Min           14.51
##                Q1           14.82
##            Median           25.15
##                Q3           32.26
##               Max           32.67
##               MAD           10.84
##               IQR           17.24
##                CV            0.31
##          Skewness           -0.20
##       SE.Skewness            0.58
##          Kurtosis           -1.69
##           N.Valid           15.00
##         Pct.Valid          100.00

El análisis de las estadísticas descriptivas revela que el rendimiento promedio de pasto es de aproximadamente 24.13 toneladas por hectárea, con una desviación estándar de 7.51 toneladas por hectárea. Los rendimientos oscilan entre un valor mínimo de 14.51 toneladas por hectárea y un valor máximo de 32.67 toneladas por hectárea.

El primer cuartil (Q1) se encuentra en 14.82 toneladas por hectárea, y el tercer cuartil (Q3) está en 32.26 toneladas por hectárea, lo que indica una variabilidad considerable en los rendimientos entre las repeticiones de los tratamientos. El coeficiente de variación (CV) es del 31%, lo que sugiere una moderada dispersión en los datos en relación con la media.

El sesgo (skewness) es ligeramente negativo (-0.20), lo que indica una ligera asimetría hacia la izquierda en la distribución de los rendimientos. Además, la curtosis (kurtosis) es negativa (-1.69)

Medidas descriptivas por Tratamientos

resultados_descriptivos5 <- aggregate(productividad ~ nitrogeno, data = datos5, summary)
print(resultados_descriptivos5)
##   nitrogeno productividad.Min. productividad.1st Qu. productividad.Median
## 1         A           14.51410              14.67600             14.72000
## 2         B           25.03100              25.13100             25.15100
## 3         C           32.11100              32.25600             32.46000
##   productividad.Mean productividad.3rd Qu. productividad.Max.
## 1           14.75962              14.82300           15.06500
## 2           25.19620              25.26700           25.40100
## 3           32.42020              32.60500           32.66900

Tratamiento 1: El rendimiento promedio de pasto en este nivel es de aproximadamente 14.76 toneladas por hectárea. Los rendimientos varían desde un mínimo de 14.51 toneladas por hectárea hasta un máximo de 15.07 toneladas por hectárea. La mediana se sitúa en 14.72 toneladas por hectárea, y el tercer cuartil en 14.82 toneladas por hectárea.

Tratamiento 2: El rendimiento promedio de pasto en este nivel es de alrededor de 25.20 toneladas por hectárea. Los rendimientos varían desde un mínimo de 25.03 toneladas por hectárea hasta un máximo de 25.40 toneladas por hectárea. La mediana se encuentra en 25.15 toneladas por hectárea, y el tercer cuartil en 25.27 toneladas por hectárea.

Tratamiento 3: El rendimiento promedio de pasto en este nivel es el más alto, alcanzando aproximadamente 32.42 toneladas por hectárea. Los rendimientos oscilan desde un mínimo de 32.11 toneladas por hectárea hasta un máximo de 32.67 toneladas por hectárea. La mediana se ubica en 32.46 toneladas por hectárea, y el tercer cuartil en 32.61 toneladas por hectárea.

1. ¿Las diferencias muestrales hacen obvia la presencia de diferencias poblacionales?

Si, ya que los datos de cada tratamiento se mueven por rangos de valores diferentes, los que nos llevaría a una media no muy exacta observando variabilidad en los datos, por ejemplo se ve que uno de los tratamientos tiene un rango de 15 a 16, el siguiente de 25 a 26, y el ultimo de 32 a 33 aproximadamente siendo estos los niveles de nitrogeno adicionados.

Realización del anova

nitrogeno_anova5 <- aov(productividad ~ nitrogeno, data = datos5)
resumen_anova5 <- summary(nitrogeno_anova5)
print(resumen_anova5)
##             Df Sum Sq Mean Sq F value Pr(>F)    
## nitrogeno    2  788.3   394.2   10132 <2e-16 ***
## Residuals   12    0.5     0.0                   
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

El análisis de varianza (ANOVA) realizado en este experimento para evaluar la influencia de los diferentes niveles de fertilización nitrogenada en el rendimiento del pasto arroja resultados altamente significativos. El factor “nitrogeno” (que representa los niveles de fertilización) muestra un valor extremadamente bajo de p (p < 0.001), indicando que existen diferencias significativas entre los tratamientos

De acuerdo al resultado del P-valor, se puede determinar que existe un efecto entre tratamientos indicando, que al menos dos de ellos son diferentes, rechazando así la hipotesis nula y aceptando la hipotesis alternativa infiriendo que los rendimientos de los fertilizantes nitrogenados son independientes de acuerdo al nivel de nitrogeno.

3. Obtenga el diagrama de caja y el gráfico de medias, después interprételos.

diagrama de cajas y bigotes por tratamiento

boxplot(datos5$productividad ~ datos5$nitrogeno, data = datos5, col = c("red", "blue", "green"), ylab = "productividad", xlab = "nitrogeno")

Evidentemente no hay algun tipo de solapamiento entre ninguno de estos tratamientos por lo que se infiere diferencias significativas entre los mimso al igual que los rangos son muy cortos y distanciaos cada uno del otro.

Es de destacar que hay una correlación positiva encontrando que mientras más nitrogeno se le agregó a cada tratamiento más toneladas de pasto se obtuvieron.

En la grafica se puede observar que existe una diferencia significativa entre los tratamientos, siendo el Nitrogeno numero 3 el mayor rendimiento en toneladas por hectárea de un pasto , seguido por el nitrogeno 2 y finalmente el Nitrigeno numero 1.

Como se observo en la gráfica de medias, estos interrogantes se responden probando la igualdad de todos los posibles pares de medias, para lo que se han propuesto varios métodos, conocidos como métodos de comparaciones múltiples o pruebas de rango múltiple(pruebas post hoc). La diferencia primordial entre dichos métodos radica en la potencia que tienen para detectar las diferencias entre las medias. Se dice que una prueba es más potente si es capaz de detectar diferencias más pequeñas.

Dentro de dichos métodos encontramos:

•Método de Tukey

•Método de Duncan

Métodos de comparaciones múltiples o pruebas de rango múltiple (pruebas post hoc)

Método de Tukey

TukeyHSD(nitrogeno_anova5)
##   Tukey multiple comparisons of means
##     95% family-wise confidence level
## 
## Fit: aov(formula = productividad ~ nitrogeno, data = datos5)
## 
## $nitrogeno
##         diff      lwr      upr p adj
## B-A 10.43658 10.10377 10.76939     0
## C-A 17.66058 17.32777 17.99339     0
## C-B  7.22400  6.89119  7.55681     0

Luego de realizar las prueba de comparaciones múltiples de Tukey, no existen diferencias significativas entre ninguno de los tratamientos pues todos los valores de p son mayores de 0.05.

plot(TukeyHSD(nitrogeno_anova5))

Lo mencionado anteriormente se confirma con la grafica de la diferencia de medias(intervalos de confianza) en los distintos niveles del método.

library(agricolae)
metodos.Duncan <-duncan.test(nitrogeno_anova5, trt = "nitrogeno", group = T, console = T)
## 
## Study: nitrogeno_anova5 ~ "nitrogeno"
## 
## Duncan's new multiple range test
## for productividad 
## 
## Mean Square Error:  0.03890497 
## 
## nitrogeno,  means
## 
##   productividad       std r         se     Min    Max    Q25    Q50    Q75
## A      14.75962 0.2037867 5 0.08820995 14.5141 15.065 14.676 14.720 14.823
## B      25.19620 0.1418986 5 0.08820995 25.0310 25.401 25.131 25.151 25.267
## C      32.42020 0.2346289 5 0.08820995 32.1110 32.669 32.256 32.460 32.605
## 
## Alpha: 0.05 ; DF Error: 12 
## 
## Critical Range
##         2         3 
## 0.2718019 0.2844986 
## 
## Means with the same letter are not significantly different.
## 
##   productividad groups
## C      32.42020      a
## B      25.19620      b
## A      14.75962      c

De la salida anterior los tratamientos que comparten al menos una letra en la columna grupos se consideran no significativamente diferentes entre sí. Estos tratamientos forman grupos estadísticamente similares.

Mientras que los tratamientos que tienen letras diferentes en la columna grupos se consideran significativamente diferentes entre sí. Si un tratamiento tiene una letra diferente de otro, significa que hay una diferencia estadísticamente significativa en sus medias, para nuestro caso todos los tratamientos se consideran significativamente diferentes.

Lo cual se observa en la siguiente gráfica

plot(metodos.Duncan, variation="IQR" )

Verificación de los supuestos del modelo

La validez de los resultados obtenidos en cualquier análisis de varianza queda condicionado a que los supuestos del modelo se cumplan. Estos supuestos son: normalidad, varianza constante (igual varianza de los tratamientos) e independencia.

Distribución normal de los residuos

Este supuesto se basa en la idea de que los residuos siguen una distribución normal. Para comprobar esto, primero analizamos una curva de densidad que muestra cómo se distribuyen las frecuencias de los residuos. Esta curva se asemeja a una campana de Gauss, lo que sugiere que los residuos podrían seguir una distribución normal.

Luego, representamos un gráfico de probabilidad normal donde los cuantiles observados de los residuos (mostrados como puntos negros) se acercan a la línea central, que representa los cuantiles de una distribución normal teórica. Este patrón indica que no hay evidencia de que los residuos incumplan el supuesto de normalidad.

library(car)
residuos<-residuals(nitrogeno_anova5)

par(mfrow=c(1,3))

dplot<-density(residuos)

plot(dplot,
      main="Curva de densidad observada",
      xlab = "Residuos",
      ylab = "Densidad")
polygon(dplot,
        col = "green",
        border = "black")

qqPlot(residuos,
       pch =20,
       main="QQ-Plot de los residuos",
       xlab = "Cuantiles teóricos",
       ylab="Cuantiles observados de los residuos")
## [1] 15  5

boxplot(residuos, col = c("red"), ylab = "residuos", main="Box-plot  de los residuos")

Sin embargo, para confirmar de manera más sólida que los residuos siguen una distribución normal, se realiza la prueba de Shapiro-Wilk.

Para la prueba Shapiro-Wilk para ratificar el cumplimiento del supuesto de normalidad de los residuos, evaluando las hipótesis:

•H o
Ho : Los residuos de la variable nitrogeno se distribuyen normalmente con media cero y varianza constante ei N(0,1) ei N(0,1) .

•H a
Ha : los residuos de la variable nitrogeno no siguen la distribución normal.

shapiro.test(residuals(nitrogeno_anova5))
## 
##  Shapiro-Wilk normality test
## 
## data:  residuals(nitrogeno_anova5)
## W = 0.97219, p-value = 0.8891

Por lo tanto no hay evidencia estadística suficiente para rechazar H 0
H0 , es decir se acepta la hipótesis nula, debido a que el valor de p (p-value = 0.8891 ) es mayor al valor del nivel de significancia (alfa=0.05), por lo que se concluye que los residuos de la variable nitrogeno están normalmente distribuidos con media cero y varianza constante.

Homogeneidad de varianzas

Este es el supuesto de mayor relevancia que los residuos deben cumplir para que el modelo empleado sea válido.

Con un diagrama de cajas y bigotes se puede apreciar gráficamente que la dispersión de los residuos para cada tratamiento son muy distintas entre si, en el caso de esta inspección no se encontraron indicios de un incumplimiento de este supuesto.

boxplot(residuos ~ datos5$nitrogeno, 
        main = "Boxplot de Residuos por niveles de fertilización nitrogenada", 
        xlab = "niveles de fertilización nitrogenada",
        col="orange",
        ylab = "Residuos")

En la siguiente gráfica, se representan los valores predichos por el modelo para la variable nitrogeno del material en función de la raíz cuadrada de los residuos estandarizados. En esta gráfica, no se observa ninguna tendencia aparente en la distribución de los valores, lo que sugiere que no hay evidencia de incumplimiento del supuesto de homogeneidad de varianzas.

Ahora graficamos los residuos

library(car)
color_1 <-colorRampPalette(c("yellow ", "blue", "yellow"))


plot(residuos, main = "Prueba de independencia", pch=20,cex = 2, col=color_1(120), ylab = "Residuos", xlab = " ")

En la grafica anterior se observan dispersos los puntos sin seguir un patron, esto es un indicio de homogeneidad de varianzas (entre más dispersos menos correlacionados)

Sin embargo, para validar de manera más sólida la homogeneidad de varianzas, se llevó a cabo la prueba de bartlett y la prueba de Levene.

Donde las hipotesis correspondientes son:

•H o
Ho : Los residuos de la variable nitrogeno son iguales para el rendimiento (productividad) en toneladas por hectarea.

•H a
Ha : Existen por lo menos dos varianzas distintas para el rendimiento (productividad) en toneladas por hectarea.

Es decir,

•H o
Ho : σ 2 A =σ 2 B =σ 2 C =σ 2
σA2=σB2=σC2

•H a
Ha : σ 2 i =σ 2 j
σi2=σj2 para i,j∈{A,B,C} i,j∈{A,B,C} e i≠j i≠j

library(stats)
bartlett.test(residuos ~ datos5$nitrogeno)
## 
##  Bartlett test of homogeneity of variances
## 
## data:  residuos by datos5$nitrogeno
## Bartlett's K-squared = 0.8865, df = 2, p-value = 0.6419

De acuerdo al valor arrojado por la prueba de bartlett, valor de p ( 0.6419) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, llegando a la misma conclusión anterior (grafica anterior).

library(stats)
leveneTest(residuos ~ datos5$nitrogeno)
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  2  0.5372 0.5978
##       12

De acuerdo al valor arrojado por la prueba de levene, valor de p (0.5978) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, confirmando las conclusiones obtenidas en los items anteriores.

durbinWatsonTest(nitrogeno_anova5)
##  lag Autocorrelation D-W Statistic p-value
##    1      -0.4464995      2.679612   0.398
##  Alternative hypothesis: rho != 0

Puesto que el valor de DW es aproximadamente igual a 2 (1-Rho) donde Rho es la autocorrelación de la muestra de los residuos.

Se debe tener en cuenta que si el valor del estadístico Durbin Watson (DW) está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si tiene un valor de 4 existe autocorrelación perfecta negativa.

Al realizar la prueba de independencia de residuos para la variable desgaste se determinó que los residuos no están correlacionados, debido a que el DW está próximo a 2 y el valor de p (p-value = 0.252) es superior al nivel de significancia de 5% (α α =0.05) por lo que se concluye que existe independencia de los residuos.