Comparación de cuatro Metodos de ensamble. Un equipo de mejora investiga el efecto de cuatro Metodos de ensamble A, B, C y D, sobre el tiempo de ensamble en minutos. En primera instancia, la estrategia experimental es aplicar cuatro veces los cuatro Metodos de ensamble en orden completamente aleatorio (las 16 pruebas en orden aleatorio). Los tiempos de ensamble obtenidos se muestran en la tabla 3.1. Si se usa el diseño completamente al azar (DCA), se supone que, además del Metodo de ensamble, no existe ningún otro factor que influya de manera significativa sobre la variable de respuesta (tiempo de ensamble).
library(readxl)
datos <- read_excel("C:/Users/angel/Documents/ajumele.xlsx")
datos
## # A tibble: 16 × 2
## desgaste metodo
## <dbl> <chr>
## 1 6 A
## 2 8 A
## 3 7 A
## 4 8 A
## 5 7 B
## 6 9 B
## 7 10 B
## 8 8 B
## 9 11 C
## 10 16 C
## 11 11 C
## 12 13 C
## 13 10 D
## 14 12 D
## 15 11 D
## 16 9 D
Veamos el número de observaciones(replicas) por tratamiento para ver si es modelo balanceado
conteo_valoresmetodo <- table(datos$metodo)
conteo_valoresmetodo
##
## A B C D
## 4 4 4 4
Dado que el número de observaciones por tratamiento es el mismo, se puede concluir que es un diseño balanceado.
•Medidas descriptivas de la variable dependiente (desgaste)
library(summarytools)
summarytools::descr(datos[,1])
## Descriptive Statistics
## datos$desgaste
## N: 16
##
## desgaste
## ----------------- ----------
## Mean 9.75
## Std.Dev 2.57
## Min 6.00
## Q1 8.00
## Median 9.50
## Q3 11.00
## Max 16.00
## MAD 2.22
## IQR 3.00
## CV 0.26
## Skewness 0.68
## SE.Skewness 0.56
## Kurtosis -0.11
## N.Valid 16.00
## Pct.Valid 100.00
A partir de los resultados que arroja el programa podemos concluir: el promedio de desgaste es de 9.75, con desviación estándar de 2.57, el valor mínimo de desgaste es de 6, el valor máximo de desgaste es de 16, el 50% de las observaciones(8) presentaron un desgaste entre 6 y 9.5, mientras que el restante 50% (8) presento un desgaste entre9.5 y 16, el coeficiente de asimetría fue de 0.68 presentando una asimetría positiva leve, además el coeficiente de curtosis fue de -0.11, indicando que la distribución es levemente platicurtica.
•Medidas descriptivas por Tratamientos
resultados_descriptivos <- aggregate(desgaste ~ metodo, data = datos, summary)
print(resultados_descriptivos)
## metodo desgaste.Min. desgaste.1st Qu. desgaste.Median desgaste.Mean
## 1 A 6.00 6.75 7.50 7.25
## 2 B 7.00 7.75 8.50 8.50
## 3 C 11.00 11.00 12.00 12.75
## 4 D 9.00 9.75 10.50 10.50
## desgaste.3rd Qu. desgaste.Max.
## 1 8.00 8.00
## 2 9.25 10.00
## 3 13.75 16.00
## 4 11.25 12.00
LLevando a cabo el análisis descriptivo por tratamiento se obtuvieron os sigueintes resultados:
•Para el método de ensamble A: el promedio de desgaste es de 7.25, el valor mínimo de desgaste es 6, el valor máximo de desgaste es 8, el 50% de las observaciones(2) presentaron un desgaste entre 6 y 7.5, mientras que el restante 50% (2) presento un desgaste entre 7.5 y 8.
•Para el método de ensamble B: el promedio de desgaste es de 8.5, el valor mínimo de desgaste es 7, el valor máximo de desgaste es 10, el 50% de las observaciones(2) presentaron un desgaste entre 7 y 8.5, mientras que el restante 50% (2) presento un desgaste entre 8.5 y 10.
•Para el método de ensamble C: el promedio de desgaste es de 12.75, el valor mínimo de desgaste es 11, el valor máximo de desgaste es 16, el 50% de las observaciones(2) presentaron un desgaste entre 11 y 12, mientras que el restante 50% (2) presento un desgaste entre 12 y 16.
•Para el método de ensamble D: el promedio de desgaste es 10.5, el valor mínimo de desgaste es 9, el valor máximo de desgaste es 12, el 50% de las observaciones(2) presentaron un desgaste entre 9 y 10.5, mientras que el restante 50% (2) presento un desgaste entre 10.5 y 12. Realización del anova
A continuación se llevará a cabo el ANOVA de un factor o modelo factorial de un solo factor el cual nos permite estudiar si existen diferencias significativas entre las medias de desgaste de los cuatro métodos de ensamble.
Las hipótesis contrastadas en el ANOVA son: No hay diferencias entre las medias de los diferentes métodos de ensamble y existen por lo menos dos métodos de ensamble con diferencias significativas en el promedio de desgaste. Que se plantearían de la siguiente forma:
H 0
H0 : μ A =μ B =μ C =μ D =μ μA=μB=μC=μD=μ
H a
Ha : μ i =μ j
μi=μj para i≠j i≠j e i,j=A,B,C,D i,j=A,B,C,D
respectivamente.
modelo_anova <- aov(desgaste ~ metodo, data = datos)
resumen_anova <- summary(modelo_anova)
print(resumen_anova)
## Df Sum Sq Mean Sq F value Pr(>F)
## metodo 3 69.5 23.167 9.424 0.00177 **
## Residuals 12 29.5 2.458
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
En este caso el ANOVA ha resultado significativo valor F = 9.924 y
p-valor 0.00177, es manor que alpha (0.05), no se dispone de evidencia
suficiente para considerar que los promedios son iguales, (es decir se
rechaza H 0
H0 ) por lo que se supone que existen por lo menos dos métodos de
ensamble con diferencias significativas en el promedio de desgaste. Para
estimar cuales son los métodos de ensamble cuyos medias de desgaste son
diferentes, hacemos uso de los diagramas de cajas y bigotes por cada
método o tratamiento.
•diagrama de cajas y bigotes por tratamiento
boxplot(datos$desgaste ~ datos$metodo, data = datos, col = c("red", "blue", "green","orange"), ylab = "Precio", xlab = "Zona")
De la grafica anterior se puede evidenciar que existen diferencias en los promedios de desgaste entre el método de ensamble A y el método de ensamble C Y D, también se puede observar diferencias entre el método B y C (no se traslapan las gráficas).
Como se ha rechazado la hipótesis de igualdad de medias con el test ANOVA, el interés está en averiguar cuál o cuáles pares de medias son diferentes entre sí.
Como se observo en la gráfica de medias, estos interrogantes se responden probando la igualdad de todos los posibles pares de medias, para lo que se han propuesto varios métodos, conocidos como métodos de comparaciones múltiples o pruebas de rango múltiple(pruebas post hoc). La diferencia primordial entre dichos métodos radica en la potencia que tienen para detectar las diferencias entre las medias. Se dice que una prueba es más potente si es capaz de detectar diferencias más pequeñas.
Dentro de dichos métodos encontramos:
•Método LSD (diferencia mínima significativa)
•Método de Tukey
•Método de Duncan
Método de Tukey
TukeyHSD(modelo_anova)
## Tukey multiple comparisons of means
## 95% family-wise confidence level
##
## Fit: aov(formula = desgaste ~ metodo, data = datos)
##
## $metodo
## diff lwr upr p adj
## B-A 1.25 -2.04155503 4.541555 0.6804513
## C-A 5.50 2.20844497 8.791555 0.0016206
## D-A 3.25 -0.04155503 6.541555 0.0533380
## C-B 4.25 0.95844497 7.541555 0.0110423
## D-B 2.00 -1.29155503 5.291555 0.3181239
## D-C -2.25 -5.54155503 1.041555 0.2309373
Luego de realizar las prueba de comparaciones múltiples de Tukey, se concluye que existen diferencia significativas entre los métodos de ensamble A y C con una diferencia de 5.50 cuyo intervalo de confianza del 95% para la diferencia es (2.2, 8.8) y un p-valor de 0.002, lo que resulta significativo (menor de 0.05), es decir no se dispone de evidencia suficiente para considerar que los promedios de desgaste en los dos tratamiento son iguales.
También se estima que existen diferencia significativas entre los métodos de ensamble C y B con una diferencia de 4.25 cuyo intervalo de confianza del 95% para la diferencia es (0.95, 7.54) y un p-valor de 0.011, lo que resulta significativo (menor de 0.05), es decir no se dispone de evidencia suficiente para considerar que los promedios de desgaste en los dos tratamiento son iguales.
Para la comparación de los demás tratamientos(métodos de ensamble) no resulto significativo.
plot(TukeyHSD(modelo_anova))
Lo mencionado anteriormente se confirma con la grafica de la diferencia de medias(intervalos de confianza) en los distintos niveles del método.
Método de Duncan
library(agricolae)
metodos.Duncan <-duncan.test(modelo_anova, trt = "metodo", group = T, console = T)
##
## Study: modelo_anova ~ "metodo"
##
## Duncan's new multiple range test
## for desgaste
##
## Mean Square Error: 2.458333
##
## metodo, means
##
## desgaste std r se Min Max Q25 Q50 Q75
## A 7.25 0.9574271 4 0.7839537 6 8 6.75 7.5 8.00
## B 8.50 1.2909944 4 0.7839537 7 10 7.75 8.5 9.25
## C 12.75 2.3629078 4 0.7839537 11 16 11.00 12.0 13.75
## D 10.50 1.2909944 4 0.7839537 9 12 9.75 10.5 11.25
##
## Alpha: 0.05 ; DF Error: 12
##
## Critical Range
## 2 3 4
## 2.415602 2.528441 2.596810
##
## Means with the same letter are not significantly different.
##
## desgaste groups
## C 12.75 a
## D 10.50 ab
## B 8.50 bc
## A 7.25 c
De la salida anterior los tratamientos que comparten al menos una letra en la columna grupos se consideran no significativamente diferentes entre sí. Estos tratamientos forman grupos estadísticamente similares.
Mientras que los tratamientos que tienen letras diferentes en la columna grupos se consideran significativamente diferentes entre sí. Si un tratamiento tiene una letra diferente de otro, significa que hay una diferencia estadísticamente significativa en sus medias, para nuestro caso los tratamientos(métodos de ensamble) C con A, B con C y D con A, no comparten letra por lo tanto se consideran significativamente diferentes.
Lo cual se observa en la siguiente gráfica
plot(metodos.Duncan, variation="IQR" )
La validez de los resultados obtenidos en cualquier análisis de varianza queda condicionado a que los supuestos del modelo se cumplan. Estos supuestos son: normalidad, varianza constante (igual varianza de los tratamientos) e independencia.
Este supuesto se basa en la idea de que los residuos siguen una distribución normal. Para comprobar esto, primero analizamos una curva de densidad que muestra cómo se distribuyen las frecuencias de los residuos. Esta curva se asemeja a una campana de Gauss, lo que sugiere que los residuos podrían seguir una distribución normal.
Luego, representamos un gráfico de probabilidad normal donde los cuantiles observados de los residuos (mostrados como puntos negros) se acercan a la línea central, que representa los cuantiles de una distribución normal teórica. Este patrón indica que no hay evidencia de que los residuos incumplan el supuesto de normalidad.
library(png)
library(car)
## Loading required package: carData
residuos<-residuals(modelo_anova)
par(mfrow=c(1,3))
dplot<-density(residuos)
plot(dplot,
main="Curva de densidad observada",
xlab = "Residuos",
ylab = "Densidad")
polygon(dplot,
col = "green",
border = "black")
qqPlot(residuos,
pch =20,
main="QQ-Plot de los residuos",
xlab = "Cuantiles teóricos",
ylab="Cuantiles observados de los residuos")
## [1] 10 9
boxplot(residuos, col = c("red"), ylab = "residuos", main="Box-plot de los residuos")
Sin embargo, para confirmar de manera más sólida que los residuos siguen una distribución normal, se realiza la prueba de Shapiro-Wilk.
Para la prueba Shapiro-Wilk para ratificar el cumplimiento del supuesto de normalidad de los residuos, evaluando las hipótesis:
•H o
Ho : Los residuos de la variable desgaste se distribuyen normalmente con
media cero y varianza constante ei N(0,1) ei N(0,1) .
•H a
Ha : los residuos de la variable desgaste no siguen la distribución
normal.
shapiro.test(residuals(modelo_anova))
##
## Shapiro-Wilk normality test
##
## data: residuals(modelo_anova)
## W = 0.93389, p-value = 0.2808
Por lo tanto no hay evidencia estadística suficiente para rechazar H
0
H0 , es decir se acepta la hipótesis nula, debido a que el valor de p
(p-value = 0.2808 ) es mayor al valor del nivel de significancia
(alfa=0.05), por lo que se concluye que los residuos de la variable
porcentaje de parasitismo están normalmente distribuidos con media cero
y varianza constante.
Este es el supuesto de mayor relevancia que los residuos deben cumplir para que el modelo empleado sea válido.
Con un diagrama de cajas y bigotes se puede apreciar gráficamente que la dispersión de los residuos para cada tratamiento son muy distintas entre si, en el caso de esta inspección no se encontraron indicios de un incumplimiento de este supuesto.
boxplot(residuos ~ datos$metodo,
main = "Boxplot de Residuos por método de ensamble",
xlab = "Método de ensamble",
col="orange",
ylab = "Residuos")
En la siguiente gráfica, se representan los valores predichos por el modelo para la variable desgaste del material en función de la raíz cuadrada de los residuos estandarizados. En esta gráfica, no se observa ninguna tendencia aparente en la distribución de los valores, lo que sugiere que no hay evidencia de incumplimiento del supuesto de homogeneidad de varianzas.
Ahora graficamos los residuos
library(car)
color_1 <-colorRampPalette(c("yellow ", "blue", "yellow"))
plot(residuos, main = "Prueba de independencia", pch=20,cex = 2, col=color_1(120), ylab = "Residuos", xlab = " ")
En la grafica anterior se observan dispersos los puntos sin seguir un patron, esto es un indicio de homogeneidad de varianzas (entre más dispersos menos correlacionados)
Sin embargo, para validar de manera más sólida la homogeneidad de varianzas, se llevó a cabo la prueba de bartlett y la prueba de Levene.
Donde las hipotesis correspondientes son:
•H o
Ho : Los residuos de la variable desgaste son iguales para los ditintos
métodos de ensamble.
•H a
Ha : Existen por lo menos dos varianzas distintas para los ditintos
métodos de ensamble.
Es decir,
•H o
Ho : σ 2 A =σ 2 B =σ 2 C =σ 2 D =σ 2
σA2=σB2=σC2=σD2=σ2
•H a
Ha : σ 2 i =σ 2 j
σi2=σj2 para i,j∈{A,B,C,D} i,j∈{A,B,C,D} e i≠j
library(stats)
bartlett.test(residuos ~ datos$metodo)
##
## Bartlett test of homogeneity of variances
##
## data: residuos by datos$metodo
## Bartlett's K-squared = 2.4853, df = 3, p-value = 0.4779
De acuerdo al valor arrojado por la prueba de bartlett, valor de p ( 0.4779) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, llegando a la misma conclusión anterior (grafica anterior).
library(stats)
leveneTest(residuos ~ datos$metodo)
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 3 0.9474 0.4485
## 12
De acuerdo al valor arrojado por la prueba de levene, valor de p (0.4485) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, confirmando las conclusiones obtenidas en los items anteriores.
durbinWatsonTest(modelo_anova)
## lag Autocorrelation D-W Statistic p-value
## 1 -0.5084746 2.887712 0.252
## Alternative hypothesis: rho != 0
Puesto que el valor de DW es aproximadamente igual a 2 (1-Rho) donde Rho es la autocorrelación de la muestra de los residuos.
Se debe tener en cuenta que si el valor del estadístico Durbin Watson (DW) está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si tiene un valor de 4 existe autocorrelación perfecta negativa.
Al realizar la prueba de independencia de residuos para la variable desgaste se determinó que los residuos no están correlacionados, debido a que el DW está próximo a 2 y el valor de p (p-value = 0.252) es superior al nivel de significancia de 5% (α α =0.05) por lo que se concluye que existe independencia de los residuos.
Se sabe que el dióxido de carbono tiene un efecto crítico en el crecimiento microbiológico. Cantidades pequeñas de CO2 estimulan el crecimiento de muchos microorganismos, mientras que altas concentraciones inhiben el crecimiento de la mayor parte de ellos. Este último efecto se utiliza comercialmente cuando se almacenan productos alimenticios perecederos. Se realizó un estudio para investigar el efecto de CO2 sobre la tasa de crecimiento de Pseudomonas fragi, un corruptor de alimentos. Se administró dióxido de carbono a cinco presiones atmósfericas diferentes. La respuesta anotada es el cambio porcentual en la masa celular después de un tiempo de crecimiento de una hora. Se utilizaron diez cultivos en cada nivel. Se obtuvieron los siguientes datos:
Nivel del factor
(presión en atmósferas de CO2)
datos1 <- read_excel("C:/Users/angel/Documents/ajumele2.xlsx")
datos1
## # A tibble: 50 × 2
## crecimiento presion
## <dbl> <chr>
## 1 62.6 A
## 2 59.6 A
## 3 64.5 A
## 4 59.3 A
## 5 58.6 A
## 6 64.6 A
## 7 50.9 A
## 8 56.2 A
## 9 52.3 A
## 10 62.8 A
## # ℹ 40 more rows
Veamos el número de observaciones(replicas) por tratamiento
conteo_valorespresion <- table(datos1$presion)
conteo_valorespresion
##
## A B C D E
## 10 10 10 10 10
Dado que el número de observaciones por tratamiento es el mismo, se puede concluir que es un diseño balanceado.
Medidas descriptivas de la variable dependiente
library(summarytools)
summarytools::descr(datos1[,1])
## Descriptive Statistics
## datos1$crecimiento
## N: 50
##
## crecimiento
## ----------------- -------------
## Mean 36.71
## Std.Dev 15.99
## Min 7.80
## Q1 22.80
## Median 36.75
## Q3 49.90
## Max 64.60
## MAD 19.87
## IQR 26.67
## CV 0.44
## Skewness 0.08
## SE.Skewness 0.34
## Kurtosis -1.13
## N.Valid 50.00
## Pct.Valid 100.00
A partir de los resultados que arroja el programa podemos concluir: el promedio de crecimiento es de 36.71, con desviación estándar de 15.99, el valor mínimo de crecimiento es de 7.80, el valor máximo de crecimiento es de 64.60, el 50% de las observaciones(25) presentaron un crecimiento entre 7.80 y 36.75, mientras que el restante 50% (25) presento un crecimiento entre 36.75 y 64.60, el coeficiente de asimetría fue de 0.08 presentando una asimetría positiva leve, además el coeficiente de curtosis fue de -1.13, indicando que la distribución es platicurtica.
Medidas descriptivas por Tratamientos
resultados_descriptivos1 <- aggregate(crecimiento ~ presion, data = datos1, summary)
print(resultados_descriptivos1)
## presion crecimiento.Min. crecimiento.1st Qu. crecimiento.Median
## 1 A 50.900 56.800 59.450
## 2 B 35.200 43.025 48.000
## 3 C 27.000 31.125 38.400
## 4 D 19.200 22.650 24.250
## 5 E 7.800 11.850 17.000
## crecimiento.Mean crecimiento.3rd Qu. crecimiento.Max.
## 1 59.140 62.750 64.600
## 2 46.040 49.800 50.900
## 3 36.450 40.150 45.500
## 4 25.470 29.425 32.700
## 5 16.440 21.025 24.900
Tratamiento A: El tratamiento A, que corresponde a una presión de CO2 relativamente alta, muestra un rango significativo en el cambio porcentual en la masa celular de Pseudomonas fragi. El valor mínimo de 50.900 indica que bajo esta condición, el crecimiento de las células puede ser estimulado. El valor máximo de 64.600 sugiere que también puede haber efectos inhibitorios en algunas réplicas. La mediana de 59.450 está cerca del promedio de 59.140, lo que sugiere una distribución aproximadamente simétrica. El tercer cuartil (62.750) indica que el 75% de las observaciones tienen un cambio porcentual en la masa celular por debajo de este valor.
Tratamiento B: En el tratamiento B, que corresponde a una presión de CO2 más baja que el tratamiento A, el rango de cambio porcentual en la masa celular es menor, con un valor mínimo de 35.200 y un valor máximo de 50.900. La mediana de 48.000 está cerca del promedio de 46.040, lo que sugiere una distribución relativamente simétrica. El tercer cuartil de 49.800 indica que la mayoría de las observaciones tienen un cambio porcentual en la masa celular por debajo de este valor.
Tratamiento C: En el tratamiento C, que tiene una presión de CO2 aún menor, el rango de cambio porcentual en la masa celular es más estrecho, con un valor mínimo de 27.000 y un valor máximo de 45.500. La mediana de 38.400 está cerca del promedio de 36.450, indicando una distribución aproximadamente simétrica. El tercer cuartil de 40.150 sugiere que la mayoría de las observaciones tienen un cambio porcentual en la masa celular por debajo de este valor.
Tratamiento D: El tratamiento D, que presenta una presión de CO2 aún más baja, tiene un rango de cambio porcentual en la masa celular más estrecho, con un valor mínimo de 19.200 y un valor máximo de 32.700. La mediana de 24.250 está cerca del promedio de 25.470, lo que indica una distribución relativamente simétrica. El tercer cuartil de 29.425 sugiere que la mayoría de las observaciones tienen un cambio porcentual en la masa celular por debajo de este valor.
Tratamiento E: El tratamiento E, que tiene la presión de CO2 más baja, muestra un rango de cambio porcentual en la masa celular aún más estrecho, con un valor mínimo de 7.800 y un valor máximo de 24.900. La mediana de 17.000 está cerca del promedio de 16.440, lo que sugiere una distribución relativamente simétrica. El tercer cuartil de 21.025 indica que la mayoría de las observaciones tienen un cambio porcentual en la masa celular por debajo de este valor.
presion_anova1 <- aov(crecimiento ~ presion, data = datos1)
resumen_anova1 <- summary(presion_anova1)
print(resumen_anova1)
## Df Sum Sq Mean Sq F value Pr(>F)
## presion 4 11274 2818.6 101.6 <2e-16 ***
## Residuals 45 1248 27.7
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Los resultados del análisis de varianza (ANOVA) indican que la variable “pres” tiene un efecto significativo en el cambio porcentual en la masa celular de Pseudomonas fragi.
El valor p obtenido es muy pequeño (<2e-16), lo que indica que existe una diferencia significativa en el cambio porcentual en la masa celular entre al menos dos de los tratamientos de presión de CO2. En otras palabras, el factor “PRESION” influye de manera significativa en la respuesta observada.
El estadístico F calculado es de 101.6, lo que respalda la evidencia de que hay diferencias significativas entre los tratamientos de presión de CO2. La varianza entre los grupos es considerable (Sum Sq = 11274), en comparación con la varianza dentro de los grupos (Sum Sq = 1248)
boxplot(datos1$crecimiento ~ datos1$presion, data = datos1, col = c("red", "blue", "green","orange","yellow"), ylab = "crecimiento", xlab = "presion")
Como se observo en la gráfica de medias, estos interrogantes se responden probando la igualdad de todos los posibles pares de medias, para lo que se han propuesto varios métodos, conocidos como métodos de comparaciones múltiples o pruebas de rango múltiple(pruebas post hoc). La diferencia primordial entre dichos métodos radica en la potencia que tienen para detectar las diferencias entre las medias. Se dice que una prueba es más potente si es capaz de detectar diferencias más pequeñas.
Dentro de dichos métodos encontramos:
•Método LSD (diferencia mínima significativa)
•Método de Tukey
•Método de Duncan
Método de Tukey
TukeyHSD(presion_anova1)
## Tukey multiple comparisons of means
## 95% family-wise confidence level
##
## Fit: aov(formula = crecimiento ~ presion, data = datos1)
##
## $presion
## diff lwr upr p adj
## B-A -13.10 -19.7921 -6.407896 0.0000133
## C-A -22.69 -29.3821 -15.997896 0.0000000
## D-A -33.67 -40.3621 -26.977896 0.0000000
## E-A -42.70 -49.3921 -36.007896 0.0000000
## C-B -9.59 -16.2821 -2.897896 0.0016698
## D-B -20.57 -27.2621 -13.877896 0.0000000
## E-B -29.60 -36.2921 -22.907896 0.0000000
## D-C -10.98 -17.6721 -4.287896 0.0002615
## E-C -20.01 -26.7021 -13.317896 0.0000000
## E-D -9.03 -15.7221 -2.337896 0.0034105
El análisis de Tukey reveló diferencias significativas entre varios de los tratamientos de presión de CO2 en términos del cambio porcentual en la masa celular de Pseudomonas fragi. En primer lugar, se observó una diferencia significativa entre el tratamiento B y el tratamiento A, con un valor de diferencia (diff) de -13.10. Esto sugiere que bajo la presión de CO2 del tratamiento B, el cambio porcentual en la masa celular es significativamente menor en comparación con el tratamiento A.
Del mismo modo, se encontraron diferencias significativas entre los tratamientos C, D y E en comparación con el tratamiento A. Las diferencias son cada vez más pronunciadas a medida que disminuye la presión de CO2. Por ejemplo, el tratamiento E mostró la mayor diferencia en comparación con el tratamiento A, con un valor de diff de -42.70, indicando una disminución significativa en el cambio porcentual en la masa celular bajo esta presión de CO2 más baja.
Además, las comparaciones entre los tratamientos individuales también revelaron diferencias significativas. Por ejemplo, las comparaciones entre C y B, D y B, así como E y B mostraron diferencias significativas, lo que indica que las respuestas bajo estas presiones de CO2 difieren entre sí.
Asimismo, las comparaciones entre C y A, D y A, así como E y A, también revelaron diferencias significativas, lo que sugiere que cada uno de estos tratamientos tiene un efecto significativamente diferente en comparación con el tratamiento A.
plot(TukeyHSD(presion_anova1))
Lo mencionado anteriormente se confirma con la grafica de la diferencia de medias(intervalos de confianza) en los distintos niveles del método.
library(agricolae)
metodos.Duncan <-duncan.test(presion_anova1, trt = "presion", group = T, console = T)
##
## Study: presion_anova1 ~ "presion"
##
## Duncan's new multiple range test
## for crecimiento
##
## Mean Square Error: 27.73418
##
## presion, means
##
## crecimiento std r se Min Max Q25 Q50 Q75
## A 59.14 4.804674 10 1.665358 50.9 64.6 56.800 59.45 62.750
## B 46.04 5.052656 10 1.665358 35.2 50.9 43.025 48.00 49.800
## C 36.45 5.933942 10 1.665358 27.0 45.5 31.125 38.40 40.150
## D 25.47 4.483315 10 1.665358 19.2 32.7 22.650 24.25 29.425
## E 16.44 5.894480 10 1.665358 7.8 24.9 11.850 17.00 21.025
##
## Alpha: 0.05 ; DF Error: 45
##
## Critical Range
## 2 3 4 5
## 4.743560 4.988480 5.149154 5.265336
##
## Means with the same letter are not significantly different.
##
## crecimiento groups
## A 59.14 a
## B 46.04 b
## C 36.45 c
## D 25.47 d
## E 16.44 e
De la salida anterior los tratamientos ninguno comparte letra de la columna de grupos, por lo que se puede interpretar como que todos son significativamente diferentes entre sí. Estos tratamientos forman grupos estadísticamente diferentes. Para nuestro caso los tratamientos (presion y cresimiento) ninguno comparte letra por lo tanto se consideran significativamente diferentes.
Lo cual se observa en la siguiente gráfica
#out <- duncan.test(model, "virus", main = "yield of sweetpotato, Dealt with different virus")
plot(metodos.Duncan, variation="IQR" )
La validez de los resultados obtenidos en cualquier análisis de varianza queda condicionado a que los supuestos del modelo se cumplan. Estos supuestos son: normalidad, varianza constante (igual varianza de los tratamientos) e independencia.
Este supuesto se basa en la idea de que los residuos siguen una distribución normal. Para comprobar esto, primero analizamos una curva de densidad que muestra cómo se distribuyen las frecuencias de los residuos. Esta curva se asemeja a una campana de Gauss, lo que sugiere que los residuos podrían seguir una distribución normal.
Luego, representamos un gráfico de probabilidad normal donde los cuantiles observados de los residuos (mostrados como puntos negros) se acercan a la línea central, que representa los cuantiles de una distribución normal teórica. Este patrón indica que no hay evidencia de que los residuos incumplan el supuesto de normalidad.
library(car)
residuos<-residuals(presion_anova1)
par(mfrow=c(1,3))
dplot<-density(residuos)
plot(dplot,
main="Curva de densidad observada",
xlab = "Residuos",
ylab = "Densidad")
polygon(dplot,
col = "green",
border = "black")
qqPlot(residuos,
pch =20,
main="QQ-Plot de los residuos",
xlab = "Cuantiles teóricos",
ylab="Cuantiles observados de los residuos")
## [1] 17 28
boxplot(residuos, col = c("red"), ylab = "residuos", main="Box-plot de los residuos")
Sin embargo, para confirmar de manera más sólida que los residuos siguen una distribución normal, se realiza la prueba de Shapiro-Wilk.
Para la prueba Shapiro-Wilk para ratificar el cumplimiento del supuesto de normalidad de los residuos, evaluando las hipótesis:
•H o
Ho : Los residuos de la variable presion se distribuyen normalmente con
media cero y varianza constante ei N(0,1) ei N(0,1) .
•H a
Ha : los residuos de la variable presion no siguen la distribución
normal.
shapiro.test(residuals(presion_anova1))
##
## Shapiro-Wilk normality test
##
## data: residuals(presion_anova1)
## W = 0.9627, p-value = 0.1153
Por lo tanto no hay evidencia estadística suficiente para rechazar H
0
H0 , es decir se acepta la hipótesis nula, debido a que el valor de p
(p-value = 0.1153 ) es mayor al valor del nivel de significancia
(alfa=0.05), por lo que se concluye que los residuos de la variable
están normalmente distribuidos con media cero y varianza constante.
Este es el supuesto de mayor relevancia que los residuos deben cumplir para que el modelo empleado sea válido.
Con un diagrama de cajas y bigotes se puede apreciar gráficamente que la dispersión de los residuos para cada tratamiento son muy distintas entre si, en el caso de esta inspección no se encontraron indicios de un incumplimiento de este supuesto.
boxplot(residuos ~ datos1$presion,
main = "Boxplot de Residuos por presiones de dioxido de carbono",
xlab = "presiones de dioxido de carbono",
col="orange",
ylab = "Residuos")
En la siguiente gráfica, se representan los valores predichos por el modelo para la variable presion en función de la raíz cuadrada de los residuos estandarizados. En esta gráfica, no se observa ninguna tendencia aparente en la distribución de los valores, lo que sugiere que no hay evidencia de incumplimiento del supuesto de homogeneidad de varianzas.
Ahora graficamos los residuos
library(car)
color_1 <-colorRampPalette(c("yellow ", "blue", "yellow"))
plot(residuos, main = "Prueba de independencia", pch=20,cex = 2, col=color_1(120), ylab = "Residuos", xlab = " ")
En la grafica anterior se observan dispersos los puntos sin seguir un patron, esto es un indicio de homogeneidad de varianzas (entre más dispersos menos correlacionados)
Sin embargo, para validar de manera más sólida la homogeneidad de varianzas, se llevó a cabo la prueba de bartlett y la prueba de Levene.
Donde las hipotesis correspondientes son:
•H o
Ho : Los residuos de la variable presion son iguales para las distintas
presiones atmosfericas usadas.
•H a
Ha : Existen por lo menos dos varianzas distintas para las distintas
presiones.
Es decir,
•H o
Ho : σ 2 A =σ 2 B =σ 2 C =σ 2 D =σ 2 E =σ 2 σA2=σB2=σC2=σD2=σ2E2=σ2
•H a
Ha : σ 2 i =σ 2 j
σi2=σj2 para i,j∈{A,B,C,D,E} i,j∈{A,B,C,D,E} e i≠j i≠j
library(stats)
bartlett.test(residuos ~ datos1$presion)
##
## Bartlett test of homogeneity of variances
##
## data: residuos by datos1$presion
## Bartlett's K-squared = 1.0701, df = 4, p-value = 0.899
De acuerdo al valor arrojado por la prueba de bartlett, valor de p ( 0.899) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, llegando a la misma conclusión anterior (grafica anterior).
library(stats)
leveneTest(residuos ~ datos1$presion)
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 4 0.1926 0.941
## 45
De acuerdo al valor arrojado por la prueba de levene, valor de p (0.941) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, confirmando las conclusiones obtenidas en los items anteriores.
durbinWatsonTest(presion_anova1)
## lag Autocorrelation D-W Statistic p-value
## 1 -0.001714932 1.947068 0.474
## Alternative hypothesis: rho != 0
Puesto que el valor de DW es aproximadamente igual a 2 (1-Rho) donde Rho es la autocorrelación de la muestra de los residuos.
Se debe tener en cuenta que si el valor del estadístico Durbin Watson (DW) está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si tiene un valor de 4 existe autocorrelación perfecta negativa.
Al realizar la prueba de independencia de residuos para la variable presion se determinó que los residuos no están correlacionados, debido a que el DW está próximo a 2 y el valor de p (p-value = 0.438) es superior al nivel de significancia de 5% (α α =0.05) por lo que se concluye que existe independencia de los residuos.
Se hace un estudio sobre la efectividad de tres marcas de spray para matar moscas.Para ello, cada producto se aplica a un grupo de 100 moscas, y se cuenta el número de moscas muertas expresado en porcentajes. Se hacen seis réplicas y los resultados obtenidos se muestran a continuación.
library(readxl)
datos2 <- read_excel("C:/Users/angel/Documents/ajumele3.xlsx")
datos2
## # A tibble: 18 × 2
## replica spray
## <dbl> <chr>
## 1 72 A
## 2 65 A
## 3 67 A
## 4 75 A
## 5 62 A
## 6 73 A
## 7 55 B
## 8 59 B
## 9 68 B
## 10 70 B
## 11 53 B
## 12 50 B
## 13 64 C
## 14 74 C
## 15 61 C
## 16 58 C
## 17 51 C
## 18 69 C
Veamos el número de observaciones(replicas) por tratamiento
conteo_valoresspray <- table(datos2$spray)
conteo_valoresspray
##
## A B C
## 6 6 6
Medidas descriptivas de la variable dependiente
library(summarytools)
summarytools::descr(datos2[,1])
## Descriptive Statistics
## datos2$replica
## N: 18
##
## replica
## ----------------- ---------
## Mean 63.67
## Std.Dev 8.01
## Min 50.00
## Q1 58.00
## Median 64.50
## Q3 70.00
## Max 75.00
## MAD 8.90
## IQR 11.50
## CV 0.13
## Skewness -0.25
## SE.Skewness 0.54
## Kurtosis -1.33
## N.Valid 18.00
## Pct.Valid 100.00
A partir de los resultados que arroja el programa podemos concluir: el promedio de moscas muertas es de 63.67, con desviación estándar de 8.01, el valor mínimo de moscas muertas es de 50, y el valor máximo de 75. Además, el coeficiente de variación, CV, de 0.13 sugiere una relativa consistencia en la efectividad de cada marca. En términos de simetría y forma de la distribución, la asimetría, skewness, es ligeramente negativa, indicando una cola izquierda en la distribución, mientras que el valor de la curtosis es negativo, -0.25, -1.33
Medidas descriptivas por Tratamientos
resultados_descriptivos2 <- aggregate(replica ~ spray, data = datos2, summary)
print(resultados_descriptivos2)
## spray replica.Min. replica.1st Qu. replica.Median replica.Mean
## 1 A 62.00000 65.50000 69.50000 69.00000
## 2 B 50.00000 53.50000 57.00000 59.16667
## 3 C 51.00000 58.75000 62.50000 62.83333
## replica.3rd Qu. replica.Max.
## 1 72.75000 75.00000
## 2 65.75000 70.00000
## 3 67.75000 74.00000
Marca 1 (A): El spray de la Marca 1 logró un promedio de aproximadamente 69.0 moscas muertas por aplicación, con un rango que varía desde un mínimo de 62 hasta un máximo de 75. En cuanto a la distribución de los datos, el 50% de las observaciones se encuentran en un rango que va desde 65.5 hasta 72.75 moscas muertas, con una mediana de 69.5. Esto sugiere que, en promedio, el spray de la Marca 1 tiene un alto nivel de efectividad en la eliminación de moscas, aunque existe cierta variabilidad en los resultados entre las réplicas.
Marca 2 (B): El spray de la Marca 2, por otro lado, mostró un promedio de alrededor de 59.17 moscas muertas por aplicación, con un rango que se extiende desde un mínimo de 50 hasta un máximo de 70. En términos de distribución, el rango intercuartil, entre el primer cuartil y el tercer cuartil, abarca desde 53.5 hasta 65.75 moscas muertas, con una mediana de 57.0. Esto indica que, el spray de la Marca 2 tiene un rendimiento ligeramente menor en la eliminación de moscas en comparación con la Marca 1, con una menor variabilidad entre las réplicas.
Marca 3 (C): tuvo un promedio de aproximadamente 62.83 moscas muertas por aplicación, con un rango que oscila entre un mínimo de 51 y un máximo de 74. En cuanto a su distribución, el rango intercuartil abarca desde 58.75 hasta 67.75 moscas muertas, con una mediana de 62.5. Esto sugiere que la Marca 3 tiene un rendimiento similar al spray de la Marca 2 en términos de moscas muertas y variabilidad. En resumen, estos resultados proporcionan información sobre la efectividad relativa de cada marca de spray en la eliminación de moscas en el experimento.
Realización del anova
spray_anova2 <- aov(replica ~ spray, data = datos2)
resumen_anova2 <- summary(spray_anova2)
print(resumen_anova2)
## Df Sum Sq Mean Sq F value Pr(>F)
## spray 2 296.3 148.17 2.793 0.0931 .
## Residuals 15 795.7 53.04
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Los resultados del análisis de varianza (ANOVA) indican que la variable “SPRAY”, marca de spray, tiene un efecto en la variable de respuesta, que en este caso es la cantidad de moscas muertas.
El valor F calculado es de 1.867 y tiene un correspondiente valor p de 0.191., Un valor p de 0.191 sugiere que no hay evidencia significativa de diferencias entre las marcas de spray en términos de la cantidad de moscas muertas. En otras palabras, no podemos concluir de manera estadísticamente significativa que una marca de spray sea más efectiva que las demás en la eliminación de moscas.
1. Formule la hipótesis adecuada y el modelo estadístico.
H0 :μ1 =μ2 =μ3 =μ4 = μ el promedio de porcentaje de moscas muertas por los spray son iguales
HA :μi ≠μ j para algún i ≠ j El promedio de porcentaje de moscas muertas por los spray no son iguales
Modelo estadístico al AZAR
si H0 < 0,05 se rechaza la hipotesis nula.
si H0 > 0,05 no se rechaza la hipotesis nula
2. ¿Existe diferencia entre la efectividad promedio de los productos en spray?
Con un nivel de significancia del 5%, no se rechaza la hipotesis nula por lo que se infiere que las diferencias de las medias no son significativas. Esto debido a que el p-valor(0,0931)>0,05.
3. ¿Hay algún spray mejor? Argumente su respuesta.
Debido a que no existe evidencia estadistica significativa para establecer que las medias no son iguales con p-valor(0,0931)>0,05, rechazando la hipotesis nula donde nos propone la igualad de medias, podemos inferir que debido a esto las medias son iguales estadisticamente.
4. Dé un intervalo al 95% de confianza para la efectividad promedio (porcentaje) de cada una de las marcas.
Existe efectividad de 69,00% para el spray 1, 59,17% para el spray 2 y 62,83% para el spray 3.
5. Dibuje las gráficas de medias y los diagramas de caja simultáneos, después interprételos.
Evidentementee como se ve en el diagrama de cajas y bigotes en las tres hay un solapamiento con respecto tanto al rango intercuartil y al rango. Es de mencionar que el rango más extenso es del grupo C el cual poría ocupar la misma amplitud que los demás, luego en tanto a amplitud de rango le sigue la marca (B) y luego la marca (C). En tanto al rango intercuartil, lo encabeza la marca (B), lugo la (C) y para finalizar con la menos extensa la marca A. Con respecto a las medianas que presenta eel diagrama de cajas y bigotes, se puede evidenciar que enorden acendente se encuentran (B), (C) y (A) respetivamente.
diagrama de cajas y bigotes por tratamiento
boxplot(datos2$replica ~ datos2$spray, data = datos2, col = c("red", "blue", "green"), ylab = "replica", xlab = "spray")
En la grafica se puede observar que La mejor marca es la uno , con una cantidad minima de moscas muertas del 62% y un registro máximo de 75% y un centro de 69.5%,la segunda marca mas efectiva fue la tres con un valor minimo de 51% de moscas muertas y un máximo de 74% y un centro de 62.5, Finalmente, el spray menos efectivo correspondio a la marca 2 con un valor minimo de 50% de moscas muertas y un máximo de 70% y centro de 62.5
Como se observo en la gráfica de medias, estos interrogantes se responden probando la igualdad de todos los posibles pares de medias, para lo que se han propuesto varios métodos, conocidos como métodos de comparaciones múltiples o pruebas de rango múltiple(pruebas post hoc). La diferencia primordial entre dichos métodos radica en la potencia que tienen para detectar las diferencias entre las medias. Se dice que una prueba es más potente si es capaz de detectar diferencias más pequeñas.
Dentro de dichos métodos encontramos:
•Método LSD (diferencia mínima significativa)
•Método de Tukey
•Método de Duncan
TukeyHSD(spray_anova2)
## Tukey multiple comparisons of means
## 95% family-wise confidence level
##
## Fit: aov(formula = replica ~ spray, data = datos2)
##
## $spray
## diff lwr upr p adj
## B-A -9.833333 -20.755528 1.088861 0.0808333
## C-A -6.166667 -17.088861 4.755528 0.3340612
## C-B 3.666667 -7.255528 14.588861 0.6654850
Luego de realizar las prueba de comparaciones múltiples de Tukey, se concluye que no existen diferencias significativas entre las marcas de Spray puesto que todos los valores de P son mayores de 0.05.
plot(TukeyHSD(spray_anova2))
Lo mencionado anteriormente se confirma con la grafica de la diferencia de medias(intervalos de confianza) en los distintos niveles del método.
library(agricolae)
metodos.Duncan <-duncan.test(spray_anova2, trt = "spray", group = T, console = T)
##
## Study: spray_anova2 ~ "spray"
##
## Duncan's new multiple range test
## for replica
##
## Mean Square Error: 53.04444
##
## spray, means
##
## replica std r se Min Max Q25 Q50 Q75
## A 69.00000 5.099020 6 2.973338 62 75 65.50 69.5 72.75
## B 59.16667 8.183316 6 2.973338 50 70 53.50 57.0 65.75
## C 62.83333 8.134290 6 2.973338 51 74 58.75 62.5 67.75
##
## Alpha: 0.05 ; DF Error: 15
##
## Critical Range
## 2 3
## 8.962607 9.395232
##
## Means with the same letter are not significantly different.
##
## replica groups
## A 69.00000 a
## C 62.83333 ab
## B 59.16667 b
De la salida anterior los tratamientos que comparten al menos una letra en la columna grupos se consideran no significativamente diferentes entre sí. Estos tratamientos forman grupos estadísticamente similares.
Mientras que los tratamientos que tienen letras diferentes en la columna grupos se consideran significativamente diferentes entre sí. Si un tratamiento tiene una letra diferente de otro, significa que hay una diferencia estadísticamente significativa en sus medias, para nuestro caso los tratamientos B con A, no comparten letra por lo tanto se consideran significativamente diferentes.
Lo cual se observa en la siguiente gráfica
plot(metodos.Duncan, variation="IQR" )
La validez de los resultados obtenidos en cualquier análisis de varianza queda condicionado a que los supuestos del modelo se cumplan. Estos supuestos son: normalidad, varianza constante (igual varianza de los tratamientos) e independencia.
#Distribución normal de los residuos
Este supuesto se basa en la idea de que los residuos siguen una distribución normal. Para comprobar esto, primero analizamos una curva de densidad que muestra cómo se distribuyen las frecuencias de los residuos. Esta curva se asemeja a una campana de Gauss, lo que sugiere que los residuos podrían seguir una distribución normal.
Luego, representamos un gráfico de probabilidad normal donde los cuantiles observados de los residuos (mostrados como puntos negros) se acercan a la línea central, que representa los cuantiles de una distribución normal teórica. Este patrón indica que no hay evidencia de que los residuos incumplan el supuesto de normalidad.
library(car)
residuos<-residuals(spray_anova2)
par(mfrow=c(1,3))
dplot<-density(residuos)
plot(dplot,
main="Curva de densidad observada",
xlab = "Residuos",
ylab = "Densidad")
polygon(dplot,
col = "green",
border = "black")
qqPlot(residuos,
pch =20,
main="QQ-Plot de los residuos",
xlab = "Cuantiles teóricos",
ylab="Cuantiles observados de los residuos")
## [1] 17 14
boxplot(residuos, col = c("red"), ylab = "residuos", main="Box-plot de los residuos")
Sin embargo, para confirmar de manera más sólida que los residuos siguen una distribución normal, se realiza la prueba de Shapiro-Wilk.
Para la prueba Shapiro-Wilk para ratificar el cumplimiento del supuesto de normalidad de los residuos, evaluando las hipótesis:
•H o
Ho : Los residuos de la variable spray se distribuyen normalmente con
media cero y varianza constante ei N(0,1) ei N(0,1) .
•H a
Ha : los residuos de la variable spray no siguen la distribución
normal.
shapiro.test(residuals(spray_anova2))
##
## Shapiro-Wilk normality test
##
## data: residuals(spray_anova2)
## W = 0.96797, p-value = 0.7589
Por lo tanto no hay evidencia estadística suficiente para rechazar H
0
H0 , es decir se acepta la hipótesis nula, debido a que el valor de p
(p-value = 0.7589 ) es mayor al valor del nivel de significancia
(alfa=0.05), por lo que se concluye que los residuos de la variable
porcentaje de parasitismo están normalmente distribuidos con media cero
y varianza constante.
Este es el supuesto de mayor relevancia que los residuos deben cumplir para que el modelo empleado sea válido.
Con un diagrama de cajas y bigotes se puede apreciar gráficamente que la dispersión de los residuos para cada tratamiento son muy distintas entre si, en el caso de esta inspección no se encontraron indicios de un incumplimiento de este supuesto.
boxplot(residuos ~ datos2$spray,
main = "Boxplot de Residuos por efectividad del spray para matar moscas",
xlab = "marca de spray",
col="orange",
ylab = "Residuos")
En la siguiente gráfica, se representan los valores predichos por el modelo para la variable efectividad de spray en función de la raíz cuadrada de los residuos estandarizados. En esta gráfica, no se observa ninguna tendencia aparente en la distribución de los valores, lo que sugiere que no hay evidencia de incumplimiento del supuesto de homogeneidad de varianzas.
Ahora graficamos los residuos
library(car)
color_1 <-colorRampPalette(c("yellow ", "blue", "yellow"))
plot(residuos, main = "Prueba de independencia", pch=20,cex = 2, col=color_1(120), ylab = "Residuos", xlab = " ")
En la grafica anterior se observan dispersos los puntos sin seguir un patron, esto es un indicio de homogeneidad de varianzas (entre más dispersos menos correlacionados)
Sin embargo, para validar de manera más sólida la homogeneidad de varianzas, se llevó a cabo la prueba de bartlett y la prueba de Levene.
Donde las hipotesis correspondientes son:
•H o
Ho : Los residuos de la variable spray son iguales para la efectividad
para matar moscas.
•H a
Ha : Existen por lo menos dos varianzas distintas para los ditintos
métodos de efectividad.
Es decir,
•H o
Ho : σ 2 A =σ 2 B =σ 2 C =σ
σA2=σB2=σC2=σ
•H a
Ha : σ 2 i =σ 2 j
σi2=σj2 para i,j∈{A,B,C} i,j∈{A,B,C} e i≠j i≠j
library(stats)
bartlett.test(residuos ~ datos2$spray)
##
## Bartlett test of homogeneity of variances
##
## data: residuos by datos2$spray
## Bartlett's K-squared = 1.1889, df = 2, p-value = 0.5519
De acuerdo al valor arrojado por la prueba de bartlett, valor de p ( 0.5519) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, llegando a la misma conclusión anterior (grafica anterior).
library(stats)
leveneTest(residuos ~ datos2$spray)
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 2 0.5288 0.5999
## 15
De acuerdo al valor arrojado por la prueba de levene, valor de p (0.5999) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, confirmando las conclusiones obtenidas en los items anteriores.
#Independencia de los residuos
durbinWatsonTest(spray_anova2)
## lag Autocorrelation D-W Statistic p-value
## 1 -0.05414747 2.04919 0.768
## Alternative hypothesis: rho != 0
Puesto que el valor de DW es aproximadamente igual a 2 (1-Rho) donde Rho es la autocorrelación de la muestra de los residuos.
Se debe tener en cuenta que si el valor del estadístico Durbin Watson (DW) está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si tiene un valor de 4 existe autocorrelación perfecta negativa.
Al realizar la prueba de independencia de residuos para la variable spray se determinó que los residuos no están correlacionados, debido a que el DW está próximo a 2 y el valor de p (p-value = 0.7) es superior al nivel de significancia de 5% (α α =0.05) por lo que se concluye que existe independencia de los residuos.
En un centro de investigación se realiza un estudio para comparar varios tratamientos que, al aplicarse previamente a los frijoles crudos, reducen su tiempo de cocción. Estos tratamientos son a base de bicarbonato de sodio (NaHCO3 ) y cloruro de sodio o sal común (NaCl). El primer tratamiento es el de control, que consiste en no aplicar ningún tratamiento. El tratamiento T2 es el remojo en agua con bicarbonato de sodio, el T3 es remojar en agua con sal común y el T4 es remojar en agua con una combinación de ambos ingredientes en proporciones iguales. La variable de respuesta es el tiempo de cocción en minutos. Los datos se muestran en la siguiente tabla:
library(readxl)
datos3 <- read_excel("C:/Users/angel/Documents/ajumele4.xlsx")
datos3
## # A tibble: 28 × 2
## minutos tratamiento
## <dbl> <chr>
## 1 213 control
## 2 214 control
## 3 204 control
## 4 208 control
## 5 212 control
## 6 200 control
## 7 207 control
## 8 76 A
## 9 85 A
## 10 74 A
## # ℹ 18 more rows
Veamos el número de observaciones(replicas) por tratamiento
conteo_valorestratamiento <- table(datos3$tratamiento)
conteo_valorestratamiento
##
## A B C control
## 7 7 7 7
Dado que el número de observaciones por tratamiento es el mismo, se puede concluir que es un diseño balanceado.
Medidas descriptivas de la variable dependiente
library(summarytools)
summarytools::descr(datos3[,1])
## Descriptive Statistics
## datos3$minutos
## N: 28
##
## minutos
## ----------------- ---------
## Mean 108.54
## Std.Dev 59.48
## Min 55.00
## Q1 70.50
## Median 82.00
## Q3 146.00
## Max 214.00
## MAD 18.53
## IQR 46.75
## CV 0.55
## Skewness 1.01
## SE.Skewness 0.44
## Kurtosis -0.87
## N.Valid 28.00
## Pct.Valid 100.00
El tiempo de cocción promedio fue de 108.54 minutos, con una desviación estándar de 59.48 minutos, lo que indica una variabilidad considerable en los tiempos de cocción registrados. Los tiempos de cocción oscilaron entre un mínimo de 55 minutos y un máximo de 214 minutos. La mediana, que divide los datos en dos mitades iguales, fue de 82.00 minutos. El rango intercuartil (IQR) fue de 46.75 minutos, lo que sugiere que la mitad de los datos se encuentran dentro de este intervalo. Además, la asimetría (skewness) de 1.01 indica cierta asimetría hacia la derecha en la distribución, mientras que la curtosis (kurtosis) de -0.87. El coeficiente de variación (CV) fue de 0.55, lo que indica una moderada variabilidad en relación con la media.
Medidas descriptivas por Tratamientos
resultados_descriptivos3 <- aggregate(minutos ~ tratamiento, data = datos3, summary)
print(resultados_descriptivos3)
## tratamiento minutos.Min. minutos.1st Qu. minutos.Median minutos.Mean
## 1 A 74.00000 75.50000 78.00000 78.85714
## 2 B 55.00000 59.00000 63.00000 61.42857
## 3 C 79.00000 83.00000 85.00000 85.57143
## 4 control 200.00000 205.50000 208.00000 208.28571
## minutos.3rd Qu. minutos.Max.
## 1 82.00000 85.00000
## 2 63.50000 67.00000
## 3 88.50000 92.00000
## 4 212.50000 214.00000
T1: El tratamiento de control, que no involucra ningún tratamiento adicional, mostró un tiempo de cocción promedio de 208.29 minutos. Los tiempos de cocción oscilaron entre 200 y 214 minutos, con un rango intercuartil (IQR) de 7 minutos. El tiempo de cocción mediano fue de 208 minutos.
T2: El tratamiento que implicaba el remojo en agua con bicarbonato de sodio (NaHCO3) promedió un tiempo de cocción de 78.86 minutos. Los tiempos de cocción variaron entre 74 y 85 minutos, con un IQR de 6.5 minutos. La mediana del tiempo de cocción fue de 78 minutos.
T3: El tratamiento que implicaba el remojo en agua con sal común (NaCl) presentó un tiempo de cocción promedio de 61.43 minutos. Los tiempos de cocción se distribuyeron entre 55 y 67 minutos, con un IQR de 4.5 minutos. La mediana del tiempo de cocción fue de 63 minutos.
T4: El tratamiento que combinaba bicarbonato de sodio (NaHCO3) y sal común (NaCl) en proporciones iguales registró un tiempo de cocción promedio de 85.57 minutos. Los tiempos de cocción variaron entre 79 y 92 minutos, con un IQR de 5.5 minutos. La mediana del tiempo de cocción fue de 85 minutos.
Realización del anova
tratamiento_anova3 <- aov(minutos ~ tratamiento, data = datos3)
resumen_anova3 <- summary(tratamiento_anova3)
print(resumen_anova3)
## Df Sum Sq Mean Sq F value Pr(>F)
## tratamiento 3 95041 31680 1559 <2e-16 ***
## Residuals 24 488 20
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
El análisis de varianza (ANOVA) realizado revela diferencias significativas en los tiempos de cocción entre los diferentes tratamientos (T1, T2, T3 y T4). La prueba de ANOVA arrojó un valor F de 1559 con un p-valor extremadamente bajo (p < 2e-16), lo que indica una fuerte evidencia de que al menos un tratamiento tiene un efecto significativo en el tiempo de cocción de los frijoles crudos.
La hipótesis nula en este contexto sostiene que no hay diferencias significativas entre los tratamientos, pero los resultados del ANOVA sugieren que esta hipótesis debe ser rechazada. En otras palabras, existe una variación significativa en los tiempos de cocción observados entre los diferentes tratamientos. Esto implica que al menos uno de los tratamientos es efectivo para reducir el tiempo de cocción en comparación con los demás.
1. ¿De qué manera el experimentador debe aleatorizar los experimentos y el material experimental? El experimentador debe aleatorizar los experimentos y el material experimental utilizando un diseño completamente al azar.
2. Dé ejemplos de factores que deben estar fijos durante las pruebas experimentales, para que no afecten los resultados y las conclusiones. Los factores que deben permanecer fijos durante los experimentos deben ser la aleatorización de la muestra, la aplicación del ratamiento y la medición del tiempo para no alterar o sesgar resultados y por lo tanto los analisis y conclusiones
3. Formule y pruebe la hipótesis de que las medias de los tratamientos son iguales.
H0 :μ1 =μ2 =μ3 =μ4 = μ El promedio de porcentaje de tiempo son iguales.
HA :μi ≠μ j para algún i ≠ j El promedio de porcentaje de tiempo no son iguales.
Modelo estadístico al AZAR
si H0 < 0,05 se rechaza la hipotesis nula.
si H0 > 0,05 no se rechaza la hipotesis nula
Según el análisis de ANOVA, existen diferencias significativas entre al menos dos de las las medias de los tratamientos esto se infiere ya que el Pvalor(2e-16)<0,05.
boxplot(datos3$minutos ~ datos3$tratamiento, data = datos3, col = c("red", "blue", "green","orange"), ylab = "minutos", xlab = "tratamiento")
En la grafica se puede observar que el mejor tratamiento es C (remojar en agua con sal comun)ya que su promedio de minutos en tiempo de coccion es menor, seguido de B (agua con bicarbonato de sodio) y por ultimo “control” (mezcla delos ingredientes de B y C)
4. Obtenga el diagrama de caja y el gráfico de medias, después interprételos.
De acuerdo a lo encontrado en este diagrama se ven diferencias significativas entre los tratamientos que se le aplicó alguna sustancia adicional, símismo el control o tratamiento que no se le aplicó ningun tipo de sustancia es considerablemente mayor con respecto a los demás. En tanto a los rangos intercuartiles se puede inferir que son e valor similar. Se puede evidenciar que el mejor metodo para reducir el tiempo de coccion de los frijoles es remojarlos con agua y sal comun seguido por frijoles remojados por bicarbonato de sodio y con una mayor duración para los frijoles con los dos tratamientos anteriores combinados. Clara mente se reddujo significativamente la cocción de los frijoles.
TukeyHSD(tratamiento_anova3)
## Tukey multiple comparisons of means
## 95% family-wise confidence level
##
## Fit: aov(formula = minutos ~ tratamiento, data = datos3)
##
## $tratamiento
## diff lwr upr p adj
## B-A -17.428571 -24.07568671 -10.78146 0.0000010
## C-A 6.714286 0.06717044 13.36140 0.0471059
## control-A 129.428571 122.78145615 136.07569 0.0000000
## C-B 24.142857 17.49574187 30.78997 0.0000000
## control-B 146.857143 140.21002758 153.50426 0.0000000
## control-C 122.714286 116.06717044 129.36140 0.0000000
B vs. A: Existe una diferencia significativa en el tiempo de cocción entre el tratamiento B (remojo en agua con bicarbonato de sodio) y el tratamiento de control A (sin tratamiento adicional). El tiempo de cocción promedio es significativamente más corto en el tratamiento B en comparación con A (diferencia de -129.43 minutos).
C vs. A: La diferencia en el tiempo de cocción entre el tratamiento C (remojo en agua con sal común) y el tratamiento de control A también es significativa. El tiempo de cocción promedio es significativamente más corto en el tratamiento C en comparación con A (diferencia de -146.86 minutos).
control vs. A: El tratamiento “control” (remojo en agua con una combinación de bicarbonato de sodio y sal común) también muestra una diferencia significativa en el tiempo de cocción en comparación con el tratamiento de control A. El tiempo de cocción promedio es significativamente más corto en el tratamiento control en comparación con A (diferencia de -122.71 minutos).
C vs. B: Se observa una diferencia significativa en el tiempo de cocción entre el tratamiento C y el tratamiento B. El tiempo de cocción promedio es significativamente más corto en el tratamiento C en comparación con B (diferencia de -17.43 minutos).
control vs. B: La diferencia entre el tratamiento control y B es significativa, pero con un p-valor marginal (0.0471). Esto indica que el tiempo de cocción en “control” tiende a ser más corto en comparación con B, pero con menos evidencia estadística que en las otras comparaciones.
control vs. C: Existe una diferencia significativa en el tiempo de cocción entre el tratamiento “control” y el tratamiento C. El tiempo de cocción promedio es significativamente más largo en “control” en comparación con C (diferencia de 24.14 minutos).
plot(TukeyHSD(tratamiento_anova3))
Lo mencionado anteriormente se confirma con la grafica de la diferencia de medias(intervalos de confianza) en los distintos niveles del método.
library(agricolae)
metodos.Duncan <-duncan.test(tratamiento_anova3, trt = "tratamiento", group = T, console = T)
##
## Study: tratamiento_anova3 ~ "tratamiento"
##
## Duncan's new multiple range test
## for minutos
##
## Mean Square Error: 20.32143
##
## tratamiento, means
##
## minutos std r se Min Max Q25 Q50 Q75
## A 78.85714 4.180453 7 1.703837 74 85 75.5 78 82.0
## B 61.42857 4.157609 7 1.703837 55 67 59.0 63 63.5
## C 85.57143 4.503967 7 1.703837 79 92 83.0 85 88.5
## control 208.28571 5.122313 7 1.703837 200 214 205.5 208 212.5
##
## Alpha: 0.05 ; DF Error: 24
##
## Critical Range
## 2 3 4
## 4.973148 5.223301 5.383910
##
## Means with the same letter are not significantly different.
##
## minutos groups
## control 208.28571 a
## C 85.57143 b
## A 78.85714 c
## B 61.42857 d
De la salida anterior los tratamientos que comparten al menos una letra en la columna grupos se consideran no significativamente diferentes entre sí. Estos tratamientos forman grupos estadísticamente similares.
Mientras que los tratamientos que tienen letras diferentes en la columna grupos se consideran significativamente diferentes entre sí. Si un tratamiento tiene una letra diferente de otro, significa que hay una diferencia estadísticamente significativa en sus medias, para nuestro caso todos los tratamientos no comparten letra por lo que se consideran significativamente diferentes.
Lo cual se observa en la siguiente gráfica
plot(metodos.Duncan, variation="IQR" )
La validez de los resultados obtenidos en cualquier análisis de varianza queda condicionado a que los supuestos del modelo se cumplan. Estos supuestos son: normalidad, varianza constante (igual varianza de los tratamientos) e independencia.
Este supuesto se basa en la idea de que los residuos siguen una distribución normal. Para comprobar esto, primero analizamos una curva de densidad que muestra cómo se distribuyen las frecuencias de los residuos. Esta curva se asemeja a una campana de Gauss, lo que sugiere que los residuos podrían seguir una distribución normal.
Luego, representamos un gráfico de probabilidad normal donde los cuantiles observados de los residuos (mostrados como puntos negros) se acercan a la línea central, que representa los cuantiles de una distribución normal teórica. Este patrón indica que no hay evidencia de que los residuos incumplan el supuesto de normalidad.
library(car)
residuos<-residuals(tratamiento_anova3)
par(mfrow=c(1,3))
dplot<-density(residuos)
plot(dplot,
main="Curva de densidad observada",
xlab = "Residuos",
ylab = "Densidad")
polygon(dplot,
col = "green",
border = "black")
qqPlot(residuos,
pch =20,
main="QQ-Plot de los residuos",
xlab = "Cuantiles teóricos",
ylab="Cuantiles observados de los residuos")
## [1] 6 27
boxplot(residuos, col = c("red"), ylab = "residuos", main="Box-plot de los residuos")
Sin embargo, para confirmar de manera más sólida que los residuos siguen una distribución normal, se realiza la prueba de Shapiro-Wilk.
Para la prueba Shapiro-Wilk para ratificar el cumplimiento del supuesto de normalidad de los residuos, evaluando las hipótesis:
•H o
Ho : Los residuos de la variable tratamiento se distribuyen normalmente
con media cero y varianza constante ei N(0,1) ei N(0,1) .
•H a
Ha : los residuos de la variable tratamiento no siguen la distribución
normal.
shapiro.test(residuals(tratamiento_anova3))
##
## Shapiro-Wilk normality test
##
## data: residuals(tratamiento_anova3)
## W = 0.95991, p-value = 0.3469
Por lo tanto no hay evidencia estadística suficiente para rechazar H
0
H0 , es decir se acepta la hipótesis nula, debido a que el valor de p
(p-value = 0.3469 ) es mayor al valor del nivel de significancia
(alfa=0.05), por lo que se concluye que los residuos de la variable
tratamiento están normalmente distribuidos con media cero y varianza
constante.
#Homogeneidad de varianzas
Este es el supuesto de mayor relevancia que los residuos deben cumplir para que el modelo empleado sea válido.
Con un diagrama de cajas y bigotes se puede apreciar gráficamente que la dispersión de los residuos para cada tratamiento son muy distintas entre si, en el caso de esta inspección no se encontraron indicios de un incumplimiento de este supuesto.
boxplot(residuos ~ datos3$tratamiento,
main = "Boxplot de Residuos por tratamiento",
xlab = "tratamiento de cocción",
col="orange",
ylab = "Residuos")
En la siguiente gráfica, se representan los valores predichos por el modelo para la variable tratamiento del material en función de la raíz cuadrada de los residuos estandarizados. En esta gráfica, no se observa ninguna tendencia aparente en la distribución de los valores, lo que sugiere que no hay evidencia de incumplimiento del supuesto de homogeneidad de varianzas.
Ahora graficamos los residuos
library(car)
color_1 <-colorRampPalette(c("yellow ", "blue", "yellow"))
plot(residuos, main = "Prueba de independencia", pch=20,cex = 2, col=color_1(120), ylab = "Residuos", xlab = " ")
En la grafica anterior se observan dispersos los puntos sin seguir un patron, esto es un indicio de homogeneidad de varianzas (entre más dispersos menos correlacionados)
Sin embargo, para validar de manera más sólida la homogeneidad de varianzas, se llevó a cabo la prueba de bartlett y la prueba de Levene.
Donde las hipotesis correspondientes son:
•H o
Ho : Los residuos de la variable tratamiento son iguales para el tiempo
de cocción.
•H a
Ha : Existen por lo menos dos varianzas distintas para los ditintos
tiempos de cocción según los tratamientos.
Es decir,
•H o
Ho : σ 2 control =σ 2 A =σ 2 B =σ 2 C =σ 2
σcontrol2=σA2=σB2=σC2=σ2
•H a
Ha : σ 2 i =σ 2 j
σi2=σj2 para i,j∈{control,A,B,C} i,j∈{control,A,B,C} e i≠j i≠j
library(stats)
bartlett.test(residuos ~ datos3$tratamiento)
##
## Bartlett test of homogeneity of variances
##
## data: residuos by datos3$tratamiento
## Bartlett's K-squared = 0.3302, df = 3, p-value = 0.9543
De acuerdo al valor arrojado por la prueba de bartlett, valor de p ( 0.9543) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, llegando a la misma conclusión anterior (grafica anterior).
library(stats)
leveneTest(residuos ~ datos3$tratamiento)
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 3 0.1631 0.9201
## 24
De acuerdo al valor arrojado por la prueba de levene, valor de p (0.9201) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, confirmando las conclusiones obtenidas en los items anteriores.
durbinWatsonTest(tratamiento_anova3)
## lag Autocorrelation D-W Statistic p-value
## 1 -0.4142606 2.74274 0.122
## Alternative hypothesis: rho != 0
Puesto que el valor de DW es aproximadamente igual a 2 (1-Rho) donde Rho es la autocorrelación de la muestra de los residuos.
Se debe tener en cuenta que si el valor del estadístico Durbin Watson (DW) está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si tiene un valor de 4 existe autocorrelación perfecta negativa.
Al realizar la prueba de independencia de residuos para la variable tratamiento se determinó que los residuos no están correlacionados, debido a que el DW está próximo a 2 y el valor de p (p-value = 0.134) es superior al nivel de significancia de 5% (α α =0.05) por lo que se concluye que existe independencia de los residuos.
Una compañía farmacéutica desea evaluar el efecto que tiene la cantidad de almidón en la dureza de las tabletas. Se decidió producir lotes con una cantidad determinada de almidón, y que las cantidades de almidón a aprobar fueran 2%, 5% y 10%. La variable de respuesta sería el promedio de la dureza de 20 tabletas de cada lote. Se hicieron 4 réplicas por tratamiento y se obtuvieron los siguientes resultados:
library(readxl)
datos4 <- read_excel("C:/Users/angel/Documents/ajumele5.xlsx")
datos4
## # A tibble: 12 × 2
## dureza porcentaje
## <dbl> <chr>
## 1 4.3 2p
## 2 5.2 2p
## 3 4.8 2p
## 4 4.5 2p
## 5 6.5 5p
## 6 7.3 5p
## 7 6.9 5p
## 8 6.1 5p
## 9 9 10p
## 10 7.8 10p
## 11 8.5 10p
## 12 8.1 10p
Veamos el número de observaciones(replicas) por tratamiento
conteo_valoresporcentaje <- table(datos4$porcentaje)
conteo_valoresporcentaje
##
## 10p 2p 5p
## 4 4 4
Dado que el número de observaciones por tratamiento es el mismo, se puede concluir que es un diseño balanceado.
Medidas descriptivas de la variable dependiente
library(summarytools)
summarytools::descr(datos4[,1])
## Descriptive Statistics
## datos4$dureza
## N: 12
##
## dureza
## ----------------- --------
## Mean 6.58
## Std.Dev 1.62
## Min 4.30
## Q1 5.00
## Median 6.70
## Q3 7.95
## Max 9.00
## MAD 2.15
## IQR 2.77
## CV 0.25
## Skewness -0.05
## SE.Skewness 0.64
## Kurtosis -1.60
## N.Valid 12.00
## Pct.Valid 100.00
El promedio de dureza fue de 6.58 con una desviación estándar de 1.62. Las tabletas mostraron una variabilidad en la dureza, con valores mínimos de 4.30 y máximos de 9.00. El primer cuartil (Q1) se situó en 5.00, y el tercer cuartil (Q3) en 7.95, lo que indica que la mayoría de las tabletas se encuentran en ese rango de dureza. El coeficiente de variación (CV) fue del 25%, lo que sugiere una moderada dispersión de los datos en relación con la media. Además, la distribución de la dureza parece cercana a una distribución simétrica, con un ligero sesgo negativo y una curtosis negativa.
Medidas descriptivas por Tratamientos
resultados_descriptivos4 <- aggregate(dureza ~ porcentaje, data = datos4, summary)
print(resultados_descriptivos4)
## porcentaje dureza.Min. dureza.1st Qu. dureza.Median dureza.Mean
## 1 10p 7.800 8.025 8.300 8.350
## 2 2p 4.300 4.450 4.650 4.700
## 3 5p 6.100 6.400 6.700 6.700
## dureza.3rd Qu. dureza.Max.
## 1 8.625 9.000
## 2 4.900 5.200
## 3 7.000 7.300
2% de Almidón: El promedio de dureza para las tabletas con un contenido de almidón del 2% fue de 4.70 con una mediana de 4.65. La dureza varió desde un mínimo de 4.30 hasta un máximo de 5.20.
5% de Almidón: Para las tabletas con un contenido de almidón del 5%, el promedio de dureza fue de 6.70, siendo la mediana también 6.70. La variabilidad en la dureza fue menor en comparación con el grupo del 2%, oscilando entre 6.10 y 7.30.
10% de Almidón: En el caso de las tabletas con un contenido de almidón del 10%, se observó un promedio de dureza de 8.35 y una mediana de 8.30. La dureza varió desde 7.80 hasta 9.00, mostrando una mayor uniformidad en comparación con los otros grupos.
Realización del anova
porcentaje_anova4 <- aov(dureza ~ porcentaje, data = datos4)
resumen_anova4 <- summary(porcentaje_anova4)
print(resumen_anova4)
## Df Sum Sq Mean Sq F value Pr(>F)
## porcentaje 2 26.73 13.36 58.1 7.16e-06 ***
## Residuals 9 2.07 0.23
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
El análisis de varianza (ANOVA) aplicado a los datos de dureza de las tabletas con diferentes concentraciones de almidón (2%, 5%, y 10%) arroja resultados significativos. La variable “porcentaje” (concentración de almidón) tiene un efecto estadísticamente significativo en la dureza de las tabletas (F = 82.57, p < 0.001). Esto sugiere que al menos uno de los niveles de concentración de almidón tiene un efecto significativo en la dureza de las tabletas.
1. ¿Hay evidencia suficiente de que el almidón influye en la dureza en las tabletas?
H0 = Todos los tratamientos no presentan efecto en la dureza, es decir, son equivalentes. Ha = Al menos uno de los tratamientos (% de almidón) presenta efecto en la dureza, es decir, son diferentes.
Criterio de decisión: Si el P-valor<alfa, se rechaza H0.
Teniendo en cuenta el análisis de la varianza se tiene que el Pvalor(7.16e-06)<0.05, se rechaza H0 y se por tanto se acepta la hipotesis alternativa en la que al menos uno de los tratamientos con almidón presenta efecto en la dureza, es decir, son diferentes.
2. ¿Las diferencias muestrales hacen obvia la presencia de diferencias poblacionales?
Si, ya que los datos de cada tratamiento se mueven por rangos de valores diferentes, los que nos llevaría a una media no muy exacta observando variabilidad en los datos, por ejemplo se ve que uno de los tratamientos tiene un rango de 15 a 16, el siguiente de 25 a 26, y el ultimo de 32 a 33 aproximadamente siendo estos los niveles de nitrogeno adicionados.
diagrama de cajas y bigotes por tratamiento
boxplot(datos4$dureza ~ datos4$porcentaje, data = datos4, col = c("red", "blue", "green"), ylab = "dureza", xlab = "porcentaje")
De la grafica anterior se puede evidenciar que existen diferencias en los promedios de porcentaje de todos los tratamientos para analizar la influencia del almidon el la dureza.
Como se ha rechazado la hipótesis de igualdad de medias con el test ANOVA, el interés está en averiguar cuál o cuáles pares de medias son diferentes entre sí.
Como se observo en la gráfica de medias, estos interrogantes se responden probando la igualdad de todos los posibles pares de medias, para lo que se han propuesto varios métodos, conocidos como métodos de comparaciones múltiples o pruebas de rango múltiple(pruebas post hoc). La diferencia primordial entre dichos métodos radica en la potencia que tienen para detectar las diferencias entre las medias. Se dice que una prueba es más potente si es capaz de detectar diferencias más pequeñas.
Dentro de dichos métodos encontramos:
•Método de Tukey
•Método de Duncan
TukeyHSD(porcentaje_anova4)
## Tukey multiple comparisons of means
## 95% family-wise confidence level
##
## Fit: aov(formula = dureza ~ porcentaje, data = datos4)
##
## $porcentaje
## diff lwr upr p adj
## 2p-10p -3.65 -4.596815 -2.7031848 0.0000052
## 5p-10p -1.65 -2.596815 -0.7031848 0.0022940
## 5p-2p 2.00 1.053185 2.9468152 0.0006016
Luego de realizar las prueba de comparaciones múltiples de Tukey, se concluye que existen diferencia significativas entre los los porcentajes de almidón 2p y 10p con una diferencia de -3.65 cuyo intervalo de confianza del 95% para la diferencia es (-4.5, -2.7) y un p-valor de 0.0000052, lo que resulta significativo (menor de 0.05), es decir no se dispone de evidencia suficiente para considerar que los promedios de porcentaje en los dos tratamiento son iguales.
También se estima que existen diferencia significativas entre los métodos de ensamble 5p y 10p con una diferencia de -1.65 cuyo intervalo de confianza del 95% para la diferencia es (-2.6, -0.7) y un p-valor de 0.002, lo que resulta significativo (menor de 0.05), es decir no se dispone de evidencia suficiente para considerar que los promedios de desgaste en los dos tratamiento son iguales.
También se estima que existen diferencia significativas entre los métodos de ensamble 5p y 2p con una diferencia de 2.00 cuyo intervalo de confianza del 95% para la diferencia es (1.0, 2.9) y un p-valor de 0.0006, lo que resulta significativo (menor de 0.05), es decir no se dispone de evidencia suficiente para considerar que los promedios de desgaste en los dos tratamiento son iguales.
Para la comparación de los demás tratamientos(métodos de ensamble) no resulto significativo.
plot(TukeyHSD(porcentaje_anova4))
Lo mencionado anteriormente se confirma con la grafica de la diferencia de medias(intervalos de confianza) en los distintos niveles del método.
library(agricolae)
metodos.Duncan <-duncan.test(porcentaje_anova4, trt = "porcentaje", group = T, console = T)
##
## Study: porcentaje_anova4 ~ "porcentaje"
##
## Duncan's new multiple range test
## for dureza
##
## Mean Square Error: 0.23
##
## porcentaje, means
##
## dureza std r se Min Max Q25 Q50 Q75
## 10p 8.35 0.5196152 4 0.2397916 7.8 9.0 8.025 8.30 8.625
## 2p 4.70 0.3915780 4 0.2397916 4.3 5.2 4.450 4.65 4.900
## 5p 6.70 0.5163978 4 0.2397916 6.1 7.3 6.400 6.70 7.000
##
## Alpha: 0.05 ; DF Error: 9
##
## Critical Range
## 2 3
## 0.7671348 0.8006971
##
## Means with the same letter are not significantly different.
##
## dureza groups
## 10p 8.35 a
## 5p 6.70 b
## 2p 4.70 c
De la salida anterior los tratamientos que comparten al menos una letra en la columna grupos se consideran no significativamente diferentes entre sí. Estos tratamientos forman grupos estadísticamente similares.
Mientras que los tratamientos que tienen letras diferentes en la columna grupos se consideran significativamente diferentes entre sí. Si un tratamiento tiene una letra diferente de otro, significa que hay una diferencia estadísticamente significativa en sus medias, para nuestro caso todos los tratamientos se consideran significativamente diferentes.
Lo cual se observa en la siguiente gráfica
plot(metodos.Duncan, variation="IQR" )
La validez de los resultados obtenidos en cualquier análisis de varianza queda condicionado a que los supuestos del modelo se cumplan. Estos supuestos son: normalidad, varianza constante (igual varianza de los tratamientos) e independencia.
Este supuesto se basa en la idea de que los residuos siguen una distribución normal. Para comprobar esto, primero analizamos una curva de densidad que muestra cómo se distribuyen las frecuencias de los residuos. Esta curva se asemeja a una campana de Gauss, lo que sugiere que los residuos podrían seguir una distribución normal.
Luego, representamos un gráfico de probabilidad normal donde los cuantiles observados de los residuos (mostrados como puntos negros) se acercan a la línea central, que representa los cuantiles de una distribución normal teórica. Este patrón indica que no hay evidencia de que los residuos incumplan el supuesto de normalidad.
library(car)
residuos<-residuals(porcentaje_anova4)
par(mfrow=c(1,3))
dplot<-density(residuos)
plot(dplot,
main="Curva de densidad observada",
xlab = "Residuos",
ylab = "Densidad")
polygon(dplot,
col = "green",
border = "black")
qqPlot(residuos,
pch =20,
main="QQ-Plot de los residuos",
xlab = "Cuantiles teóricos",
ylab="Cuantiles observados de los residuos")
## [1] 9 8
boxplot(residuos, col = c("red"), ylab = "residuos", main="Box-plot de los residuos")
Sin embargo, para confirmar de manera más sólida que los residuos siguen una distribución normal, se realiza la prueba de Shapiro-Wilk.
Para la prueba Shapiro-Wilk para ratificar el cumplimiento del supuesto de normalidad de los residuos, evaluando las hipótesis:
•H o
Ho : Los residuos de la variable porcentaje se distribuyen normalmente
con media cero y varianza constante ei N(0,1) ei N(0,1) .
•H a
Ha : los residuos de la variable porcentaje no siguen la distribución
normal.
shapiro.test(residuals(porcentaje_anova4))
##
## Shapiro-Wilk normality test
##
## data: residuals(porcentaje_anova4)
## W = 0.93444, p-value = 0.4295
Por lo tanto no hay evidencia estadística suficiente para rechazar H
0
H0 , es decir se acepta la hipótesis nula, debido a que el valor de p
(p-value = 0.4295 ) es mayor al valor del nivel de significancia
(alfa=0.05), por lo que se concluye que los residuos de la variable
porcentaje están normalmente distribuidos con media cero y varianza
constante.
Este es el supuesto de mayor relevancia que los residuos deben cumplir para que el modelo empleado sea válido.
Con un diagrama de cajas y bigotes se puede apreciar gráficamente que la dispersión de los residuos para cada tratamiento muestran una tendencia de los valores.
boxplot(residuos ~ datos4$porcentaje,
main = "Boxplot de Residuos por porcentaje de almidon",
xlab = "porcentaje de almidon",
col="orange",
ylab = "Residuos")
En la siguiente gráfica, se representan los valores predichos por el modelo para la variable porcentaje del material en función de la raíz cuadrada de los residuos estandarizados. En esta gráfica, no se observa ninguna tendencia aparente en la distribución de los valores, lo que sugiere que no hay evidencia de incumplimiento del supuesto de homogeneidad de varianzas.
Ahora graficamos los residuos
library(car)
color_1 <-colorRampPalette(c("yellow ", "blue", "yellow"))
plot(residuos, main = "Prueba de independencia", pch=20,cex = 2, col=color_1(120), ylab = "Residuos", xlab = " ")
En la grafica anterior se observan dispersos los puntos sin seguir un patron, esto es un indicio de homogeneidad de varianzas (entre más dispersos menos correlacionados)
Sin embargo, para validar de manera más sólida la homogeneidad de varianzas, se llevó a cabo la prueba de bartlett y la prueba de Levene.
Donde las hipotesis correspondientes son:
•H o
Ho : Los residuos de la variable porcentaje de almidon son iguales para
la dureza de los medicamentos.
•H a
Ha : Existen por lo menos dos varianzas distintas para lostratamientos
para evaluar la dureza.
Es decir,
•H o
Ho : σ 2 2p =σ 2 5p =σ 2 10p =σ 2
σ2p2=σ5p2=σ10p2=σ
•H a
Ha : σ 2 i =σ 2 j
σi2=σj2 para i,j∈{2p,5p,10p} i,j∈{2p,5p,10p} e i≠j i≠j
library(stats)
bartlett.test(residuos ~ datos4$porcentaje)
##
## Bartlett test of homogeneity of variances
##
## data: residuos by datos4$porcentaje
## Bartlett's K-squared = 0.25398, df = 2, p-value = 0.8807
De acuerdo al valor arrojado por la prueba de bartlett, valor de p ( 0.8807) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, llegando a la misma conclusión anterior (grafica anterior).
library(stats)
leveneTest(residuos ~ datos4$porcentaje)
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 2 0.2667 0.7718
## 9
De acuerdo al valor arrojado por la prueba de levene, valor de p (0.7718) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, confirmando las conclusiones obtenidas en los items anteriores.
durbinWatsonTest(porcentaje_anova4)
## lag Autocorrelation D-W Statistic p-value
## 1 -0.5398551 2.972222 0.166
## Alternative hypothesis: rho != 0
Puesto que el valor de DW es aproximadamente igual a 2 (1-Rho) donde Rho es la autocorrelación de la muestra de los residuos.
Se debe tener en cuenta que si el valor del estadístico Durbin Watson (DW) está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si tiene un valor de 4 existe autocorrelación perfecta negativa.
Al realizar la prueba de independencia de residuos para la variable porcentaje se determinó que los residuos no están correlacionados, debido a que el DW está próximo a 2 y el valor de p (p-value = 0.19) es superior al nivel de significancia de 5% (α α =0.05) por lo que se concluye que existe independencia de los residuos.
Los datos que se presentan enseguida son rendimientos en toneladas por hectárea de un pasto con tres niveles de fertilización nitrogenada. El diseño fue completamente aleatorizado, con cinco repeticiones por tratamiento.
library(readxl)
datos5 <- read_excel("C:/Users/angel/Documents/ajumele6.xlsx")
datos5
## # A tibble: 15 × 2
## productividad nitrogeno
## <dbl> <chr>
## 1 14.8 A
## 2 14.7 A
## 3 14.7 A
## 4 14.5 A
## 5 15.1 A
## 6 25.2 B
## 7 25.4 B
## 8 25.1 B
## 9 25.0 B
## 10 25.3 B
## 11 32.6 C
## 12 32.5 C
## 13 32.3 C
## 14 32.7 C
## 15 32.1 C
Veamos el número de observaciones(replicas) por tratamiento
conteo_valoresnitrogeno <- table(datos5$nitrogeno)
conteo_valoresnitrogeno
##
## A B C
## 5 5 5
Dado que el número de observaciones por tratamiento es el mismo, se puede concluir que es un diseño balanceado.
Medidas descriptivas de la variable dependiente
library(summarytools)
summarytools::descr(datos5[,1])
## Descriptive Statistics
## datos5$productividad
## N: 15
##
## productividad
## ----------------- ---------------
## Mean 24.13
## Std.Dev 7.51
## Min 14.51
## Q1 14.82
## Median 25.15
## Q3 32.26
## Max 32.67
## MAD 10.84
## IQR 17.24
## CV 0.31
## Skewness -0.20
## SE.Skewness 0.58
## Kurtosis -1.69
## N.Valid 15.00
## Pct.Valid 100.00
El análisis de las estadísticas descriptivas revela que el rendimiento promedio de pasto es de aproximadamente 24.13 toneladas por hectárea, con una desviación estándar de 7.51 toneladas por hectárea. Los rendimientos oscilan entre un valor mínimo de 14.51 toneladas por hectárea y un valor máximo de 32.67 toneladas por hectárea.
El primer cuartil (Q1) se encuentra en 14.82 toneladas por hectárea, y el tercer cuartil (Q3) está en 32.26 toneladas por hectárea, lo que indica una variabilidad considerable en los rendimientos entre las repeticiones de los tratamientos. El coeficiente de variación (CV) es del 31%, lo que sugiere una moderada dispersión en los datos en relación con la media.
El sesgo (skewness) es ligeramente negativo (-0.20), lo que indica una ligera asimetría hacia la izquierda en la distribución de los rendimientos. Además, la curtosis (kurtosis) es negativa (-1.69)
Medidas descriptivas por Tratamientos
resultados_descriptivos5 <- aggregate(productividad ~ nitrogeno, data = datos5, summary)
print(resultados_descriptivos5)
## nitrogeno productividad.Min. productividad.1st Qu. productividad.Median
## 1 A 14.51410 14.67600 14.72000
## 2 B 25.03100 25.13100 25.15100
## 3 C 32.11100 32.25600 32.46000
## productividad.Mean productividad.3rd Qu. productividad.Max.
## 1 14.75962 14.82300 15.06500
## 2 25.19620 25.26700 25.40100
## 3 32.42020 32.60500 32.66900
Tratamiento 1: El rendimiento promedio de pasto en este nivel es de aproximadamente 14.76 toneladas por hectárea. Los rendimientos varían desde un mínimo de 14.51 toneladas por hectárea hasta un máximo de 15.07 toneladas por hectárea. La mediana se sitúa en 14.72 toneladas por hectárea, y el tercer cuartil en 14.82 toneladas por hectárea.
Tratamiento 2: El rendimiento promedio de pasto en este nivel es de alrededor de 25.20 toneladas por hectárea. Los rendimientos varían desde un mínimo de 25.03 toneladas por hectárea hasta un máximo de 25.40 toneladas por hectárea. La mediana se encuentra en 25.15 toneladas por hectárea, y el tercer cuartil en 25.27 toneladas por hectárea.
Tratamiento 3: El rendimiento promedio de pasto en este nivel es el más alto, alcanzando aproximadamente 32.42 toneladas por hectárea. Los rendimientos oscilan desde un mínimo de 32.11 toneladas por hectárea hasta un máximo de 32.67 toneladas por hectárea. La mediana se ubica en 32.46 toneladas por hectárea, y el tercer cuartil en 32.61 toneladas por hectárea.
1. ¿Las diferencias muestrales hacen obvia la presencia de diferencias poblacionales?
Si, ya que los datos de cada tratamiento se mueven por rangos de valores diferentes, los que nos llevaría a una media no muy exacta observando variabilidad en los datos, por ejemplo se ve que uno de los tratamientos tiene un rango de 15 a 16, el siguiente de 25 a 26, y el ultimo de 32 a 33 aproximadamente siendo estos los niveles de nitrogeno adicionados.
Realización del anova
nitrogeno_anova5 <- aov(productividad ~ nitrogeno, data = datos5)
resumen_anova5 <- summary(nitrogeno_anova5)
print(resumen_anova5)
## Df Sum Sq Mean Sq F value Pr(>F)
## nitrogeno 2 788.3 394.2 10132 <2e-16 ***
## Residuals 12 0.5 0.0
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
El análisis de varianza (ANOVA) realizado en este experimento para evaluar la influencia de los diferentes niveles de fertilización nitrogenada en el rendimiento del pasto arroja resultados altamente significativos. El factor “nitrogeno” (que representa los niveles de fertilización) muestra un valor extremadamente bajo de p (p < 0.001), indicando que existen diferencias significativas entre los tratamientos
De acuerdo al resultado del P-valor, se puede determinar que existe un efecto entre tratamientos indicando, que al menos dos de ellos son diferentes, rechazando así la hipotesis nula y aceptando la hipotesis alternativa infiriendo que los rendimientos de los fertilizantes nitrogenados son independientes de acuerdo al nivel de nitrogeno.
3. Obtenga el diagrama de caja y el gráfico de medias, después interprételos.
diagrama de cajas y bigotes por tratamiento
boxplot(datos5$productividad ~ datos5$nitrogeno, data = datos5, col = c("red", "blue", "green"), ylab = "productividad", xlab = "nitrogeno")
Evidentemente no hay algun tipo de solapamiento entre ninguno de estos tratamientos por lo que se infiere diferencias significativas entre los mimso al igual que los rangos son muy cortos y distanciaos cada uno del otro.
Es de destacar que hay una correlación positiva encontrando que mientras más nitrogeno se le agregó a cada tratamiento más toneladas de pasto se obtuvieron.
En la grafica se puede observar que existe una diferencia significativa entre los tratamientos, siendo el Nitrogeno numero 3 el mayor rendimiento en toneladas por hectárea de un pasto , seguido por el nitrogeno 2 y finalmente el Nitrigeno numero 1.
Como se observo en la gráfica de medias, estos interrogantes se responden probando la igualdad de todos los posibles pares de medias, para lo que se han propuesto varios métodos, conocidos como métodos de comparaciones múltiples o pruebas de rango múltiple(pruebas post hoc). La diferencia primordial entre dichos métodos radica en la potencia que tienen para detectar las diferencias entre las medias. Se dice que una prueba es más potente si es capaz de detectar diferencias más pequeñas.
Dentro de dichos métodos encontramos:
•Método de Tukey
•Método de Duncan
TukeyHSD(nitrogeno_anova5)
## Tukey multiple comparisons of means
## 95% family-wise confidence level
##
## Fit: aov(formula = productividad ~ nitrogeno, data = datos5)
##
## $nitrogeno
## diff lwr upr p adj
## B-A 10.43658 10.10377 10.76939 0
## C-A 17.66058 17.32777 17.99339 0
## C-B 7.22400 6.89119 7.55681 0
Luego de realizar las prueba de comparaciones múltiples de Tukey, no existen diferencias significativas entre ninguno de los tratamientos pues todos los valores de p son mayores de 0.05.
plot(TukeyHSD(nitrogeno_anova5))
Lo mencionado anteriormente se confirma con la grafica de la diferencia de medias(intervalos de confianza) en los distintos niveles del método.
library(agricolae)
metodos.Duncan <-duncan.test(nitrogeno_anova5, trt = "nitrogeno", group = T, console = T)
##
## Study: nitrogeno_anova5 ~ "nitrogeno"
##
## Duncan's new multiple range test
## for productividad
##
## Mean Square Error: 0.03890497
##
## nitrogeno, means
##
## productividad std r se Min Max Q25 Q50 Q75
## A 14.75962 0.2037867 5 0.08820995 14.5141 15.065 14.676 14.720 14.823
## B 25.19620 0.1418986 5 0.08820995 25.0310 25.401 25.131 25.151 25.267
## C 32.42020 0.2346289 5 0.08820995 32.1110 32.669 32.256 32.460 32.605
##
## Alpha: 0.05 ; DF Error: 12
##
## Critical Range
## 2 3
## 0.2718019 0.2844986
##
## Means with the same letter are not significantly different.
##
## productividad groups
## C 32.42020 a
## B 25.19620 b
## A 14.75962 c
De la salida anterior los tratamientos que comparten al menos una letra en la columna grupos se consideran no significativamente diferentes entre sí. Estos tratamientos forman grupos estadísticamente similares.
Mientras que los tratamientos que tienen letras diferentes en la columna grupos se consideran significativamente diferentes entre sí. Si un tratamiento tiene una letra diferente de otro, significa que hay una diferencia estadísticamente significativa en sus medias, para nuestro caso todos los tratamientos se consideran significativamente diferentes.
Lo cual se observa en la siguiente gráfica
plot(metodos.Duncan, variation="IQR" )
La validez de los resultados obtenidos en cualquier análisis de varianza queda condicionado a que los supuestos del modelo se cumplan. Estos supuestos son: normalidad, varianza constante (igual varianza de los tratamientos) e independencia.
Este supuesto se basa en la idea de que los residuos siguen una distribución normal. Para comprobar esto, primero analizamos una curva de densidad que muestra cómo se distribuyen las frecuencias de los residuos. Esta curva se asemeja a una campana de Gauss, lo que sugiere que los residuos podrían seguir una distribución normal.
Luego, representamos un gráfico de probabilidad normal donde los cuantiles observados de los residuos (mostrados como puntos negros) se acercan a la línea central, que representa los cuantiles de una distribución normal teórica. Este patrón indica que no hay evidencia de que los residuos incumplan el supuesto de normalidad.
library(car)
residuos<-residuals(nitrogeno_anova5)
par(mfrow=c(1,3))
dplot<-density(residuos)
plot(dplot,
main="Curva de densidad observada",
xlab = "Residuos",
ylab = "Densidad")
polygon(dplot,
col = "green",
border = "black")
qqPlot(residuos,
pch =20,
main="QQ-Plot de los residuos",
xlab = "Cuantiles teóricos",
ylab="Cuantiles observados de los residuos")
## [1] 15 5
boxplot(residuos, col = c("red"), ylab = "residuos", main="Box-plot de los residuos")
Sin embargo, para confirmar de manera más sólida que los residuos siguen una distribución normal, se realiza la prueba de Shapiro-Wilk.
Para la prueba Shapiro-Wilk para ratificar el cumplimiento del supuesto de normalidad de los residuos, evaluando las hipótesis:
•H o
Ho : Los residuos de la variable nitrogeno se distribuyen normalmente
con media cero y varianza constante ei N(0,1) ei N(0,1) .
•H a
Ha : los residuos de la variable nitrogeno no siguen la distribución
normal.
shapiro.test(residuals(nitrogeno_anova5))
##
## Shapiro-Wilk normality test
##
## data: residuals(nitrogeno_anova5)
## W = 0.97219, p-value = 0.8891
Por lo tanto no hay evidencia estadística suficiente para rechazar H
0
H0 , es decir se acepta la hipótesis nula, debido a que el valor de p
(p-value = 0.8891 ) es mayor al valor del nivel de significancia
(alfa=0.05), por lo que se concluye que los residuos de la variable
nitrogeno están normalmente distribuidos con media cero y varianza
constante.
Este es el supuesto de mayor relevancia que los residuos deben cumplir para que el modelo empleado sea válido.
Con un diagrama de cajas y bigotes se puede apreciar gráficamente que la dispersión de los residuos para cada tratamiento son muy distintas entre si, en el caso de esta inspección no se encontraron indicios de un incumplimiento de este supuesto.
boxplot(residuos ~ datos5$nitrogeno,
main = "Boxplot de Residuos por niveles de fertilización nitrogenada",
xlab = "niveles de fertilización nitrogenada",
col="orange",
ylab = "Residuos")
En la siguiente gráfica, se representan los valores predichos por el modelo para la variable nitrogeno del material en función de la raíz cuadrada de los residuos estandarizados. En esta gráfica, no se observa ninguna tendencia aparente en la distribución de los valores, lo que sugiere que no hay evidencia de incumplimiento del supuesto de homogeneidad de varianzas.
Ahora graficamos los residuos
library(car)
color_1 <-colorRampPalette(c("yellow ", "blue", "yellow"))
plot(residuos, main = "Prueba de independencia", pch=20,cex = 2, col=color_1(120), ylab = "Residuos", xlab = " ")
En la grafica anterior se observan dispersos los puntos sin seguir un patron, esto es un indicio de homogeneidad de varianzas (entre más dispersos menos correlacionados)
Sin embargo, para validar de manera más sólida la homogeneidad de varianzas, se llevó a cabo la prueba de bartlett y la prueba de Levene.
Donde las hipotesis correspondientes son:
•H o
Ho : Los residuos de la variable nitrogeno son iguales para el
rendimiento (productividad) en toneladas por hectarea.
•H a
Ha : Existen por lo menos dos varianzas distintas para el rendimiento
(productividad) en toneladas por hectarea.
Es decir,
•H o
Ho : σ 2 A =σ 2 B =σ 2 C =σ 2
σA2=σB2=σC2
•H a
Ha : σ 2 i =σ 2 j
σi2=σj2 para i,j∈{A,B,C} i,j∈{A,B,C} e i≠j i≠j
library(stats)
bartlett.test(residuos ~ datos5$nitrogeno)
##
## Bartlett test of homogeneity of variances
##
## data: residuos by datos5$nitrogeno
## Bartlett's K-squared = 0.8865, df = 2, p-value = 0.6419
De acuerdo al valor arrojado por la prueba de bartlett, valor de p ( 0.6419) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, llegando a la misma conclusión anterior (grafica anterior).
library(stats)
leveneTest(residuos ~ datos5$nitrogeno)
## Warning in leveneTest.default(y = y, group = group, ...): group coerced to
## factor.
## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 2 0.5372 0.5978
## 12
De acuerdo al valor arrojado por la prueba de levene, valor de p (0.5978) mayor a 0.05 se acepta la hipótesis nula, por lo que existe homogeneidad de varianzas, confirmando las conclusiones obtenidas en los items anteriores.
durbinWatsonTest(nitrogeno_anova5)
## lag Autocorrelation D-W Statistic p-value
## 1 -0.4464995 2.679612 0.398
## Alternative hypothesis: rho != 0
Puesto que el valor de DW es aproximadamente igual a 2 (1-Rho) donde Rho es la autocorrelación de la muestra de los residuos.
Se debe tener en cuenta que si el valor del estadístico Durbin Watson (DW) está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si tiene un valor de 4 existe autocorrelación perfecta negativa.
Al realizar la prueba de independencia de residuos para la variable desgaste se determinó que los residuos no están correlacionados, debido a que el DW está próximo a 2 y el valor de p (p-value = 0.252) es superior al nivel de significancia de 5% (α α =0.05) por lo que se concluye que existe independencia de los residuos.