El Teorema del Límite Central es uno de los más importantes en la inferencia estadística y habla sobre la convergencia de los estimadores como la proporción muestral a la distribución normal. Algunos autores afirman que esta aproximación es bastante buena a partir del umbral n>30.
1000 ceros o unos generados aleatoriamente con la misma probabilidad, el 1 representará a las plantas enfermas
set.seed(1)
Lote=sample(0:1,1000, replace=T)
MuestraLote=function(n){
return(sample(Lote,n, replace=T))
}
Muestra de 40 plantas del lote
sum(MuestraLote(40))/40
## [1] 0.55
Así el estimador de la proporción muestral para un tamaño de muestra de 40 es 0.55
simulNtimes<-vector("numeric",500)
for (i in 1:500) {
simulNtimes[i]<-sum(MuestraLote(40))/40
}
simulNtimes <- as.numeric(simulNtimes)
hist(simulNtimes,density = 50, main = "Histograma plantas enfermas",
xlab = "Estimador", ylab = "Frecuencia")
line = mean(simulNtimes)
abline(v=line, col="red",lwd=3)
Apoyados en el histograma se aprecia una leve asimetria y una media cercana al 0.5. Los lotes se tomaron de 40 individuios al azar,si se hubieran tomado lotes más grandes se esperaba que esta leve asimetria fuese casi nula. Se evidencia que la proporción es insesgada, consecuencia de que en la generación de datos no se asignaron pesos diferentes a plantas enfermas y sanas, por lo que se espera que la mayoría de las proporciones estén al rededor de 0.5.
Si calculamos el estimador de asimetría, tenemos
library(moments)
skewness(simulNtimes)
## [1] 0.09553895
Es consecuente con lo que se observa en la gráfica.
Desviación estándar.
sd(simulNtimes)
## [1] 0.07921956
La desviación estándar es baja, por lo que su variabilidad es baja.
La siguiente función funcionSimul extrae n valores de la población de 1000 plantas, después calcula la proporción muestral y a continuación lo agrega a la lista simulNtimes, este proceso se repite 500 veces.
funcionSimul=function(n){
SimulNtimes<-vector("numeric",500)
for (i in 1:500) {
simulNtimes[i]<-sum(MuestraLote(n))/n
}
#simulNtimes <- gsub(",", "", simulNtimes) # remove comma
simulNtimes <- as.numeric(simulNtimes) # turn into numbers
hist(simulNtimes,density = 50, main = paste("Histograma plantas enfermas n=", n),
xlab = "Estimador", ylab = "Frecuencia")
line = mean(simulNtimes)
abline(v=line, col="red",lwd=3)
qqnorm(simulNtimes, xlab="Cuantiles teóricos", ylab="Cuantiles muestrales",las=1,main=paste("Gráfico QQ n=",n))
qqline(simulNtimes, col = "red")
print(paste("Resumen Estadístico n=",n))
print(summary(simulNtimes))
print(shapiro.test(simulNtimes))
}
#Vector de los tamaños de muestra
vecMuestra <- c(5,10,15,20,30,50,60,100,200,500)
for (i in vecMuestra) {
funcionSimul(i)
}
## [1] "Resumen Estadístico n= 5"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.0000 0.4000 0.6000 0.5152 0.6000 1.0000
##
## Shapiro-Wilk normality test
##
## data: simulNtimes
## W = 0.93032, p-value = 1.69e-14
## [1] "Resumen Estadístico n= 10"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.1000 0.4000 0.5000 0.4924 0.6000 0.9000
##
## Shapiro-Wilk normality test
##
## data: simulNtimes
## W = 0.96242, p-value = 5.355e-10
## [1] "Resumen Estadístico n= 15"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.2000 0.4000 0.4667 0.4937 0.6000 0.8667
##
## Shapiro-Wilk normality test
##
## data: simulNtimes
## W = 0.97369, p-value = 7.948e-08
## [1] "Resumen Estadístico n= 20"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.2000 0.4000 0.5000 0.4924 0.5500 0.8000
##
## Shapiro-Wilk normality test
##
## data: simulNtimes
## W = 0.97853, p-value = 1.003e-06
## [1] "Resumen Estadístico n= 30"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.2333 0.4333 0.5000 0.4952 0.5667 0.8000
##
## Shapiro-Wilk normality test
##
## data: simulNtimes
## W = 0.98658, p-value = 0.0001458
## [1] "Resumen Estadístico n= 50"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.2800 0.4600 0.5000 0.4992 0.5600 0.7200
##
## Shapiro-Wilk normality test
##
## data: simulNtimes
## W = 0.99163, p-value = 0.006422
## [1] "Resumen Estadístico n= 60"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.3333 0.4500 0.5000 0.4985 0.5500 0.6833
##
## Shapiro-Wilk normality test
##
## data: simulNtimes
## W = 0.98972, p-value = 0.001432
## [1] "Resumen Estadístico n= 100"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.3200 0.4700 0.5000 0.4988 0.5300 0.6900
##
## Shapiro-Wilk normality test
##
## data: simulNtimes
## W = 0.99504, p-value = 0.1093
## [1] "Resumen Estadístico n= 200"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.3800 0.4750 0.4950 0.4966 0.5200 0.6150
##
## Shapiro-Wilk normality test
##
## data: simulNtimes
## W = 0.9964, p-value = 0.3232
## [1] "Resumen Estadístico n= 500"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.4340 0.4820 0.4970 0.4968 0.5120 0.5600
##
## Shapiro-Wilk normality test
##
## data: simulNtimes
## W = 0.99758, p-value = 0.69
Note que para muestras pequeñas para el gráfico QQ se observa un mayor desajuste con la linea recta en los extremos, aún así en el centro el ajuste es bueno, a medida que el valor de n crece se obtiene con mejor precisión una linea recta, y esto se también se evidencia con el incremento del valor p de la prueba Shapiro-Wilk en la que se va aceptando la hipotesis nula de normalidad.
set.seed(0)
LoteCargado = sample(0:1, 1000, replace=TRUE, prob = c(90,10))
Genere una función que permita obtener una muestra aleatoria de la población y calcule el estimador de la proporción muestral para un tamaño de muestra dado n.
MuestraLoteCargado=function(n){
return(sample(LoteCargado,n, replace=T))
}
Muestra de 40 del Lote cargado
sum(MuestraLoteCargado(40))/40
## [1] 0.175
Así el estimador de la proporción muestral para un tamaño de muestra de 40 es 0.175.
Repita el escenario anterior (b) 500 veces y analice los resultados en cuanto al comportamiento de los 500 estimadores. ¿Qué tan simétricos son los datos?, ¿Son sesgados y qué pasa en cuanto a variabilidad?
simulNtimesc<-vector("numeric",500)
for (i in 1:500) {
simulNtimesc[i]<-sum(MuestraLoteCargado(40))/40
}
simulNtimesc <- as.numeric(simulNtimesc) # turn into numbers
hist(simulNtimesc,density = 50, main = "Histograma plantas enfermas",
xlab = "Estimador", ylab = "Frecuencia")
linec = mean(simulNtimesc)
abline(v=linec, col="red",lwd=3)
Apoyados en el histograma se aprecia una leve asimetria y una media cercana al 0.1. Los lotes se tomaron de 40 individuos al azar, si se hubieran tomado lotes más grandes se esperaba que esta leve asimetria fuera casi nula. Se evidencia que la proporción es insesgada considerando la carga presente en los datos generados.
Si calculamos el estimador de asimetria tenemos
library(moments)
skewness(simulNtimesc)
## [1] 0.3743154
La asimetría incrementó, lo cual es consecuente con lo que se observa en la gráfica.
Desviación estándar.
sd(simulNtimesc)
## [1] 0.04754715
La desviación estándar incrementó levemente con respecto a los datos equilibrados.
Realice los ejercicios completos b y c para tamaños de muestra n=5, 10, 15, 20, 30, 50, 60, 100, 200, 500. Y compare los resultados de los estimadores en cuanto a la normalidad. Investigue y utilice pruebas de bondad y ajuste (shapiro wilks) y métodos gráficos (grafico qq de normalidad).
La siguiente función funcionSimulc extrae n valores de la población de 1000 plantas, después calcula la proporción muestral y a continuación lo agrega a la lista simulNtimesc, este proceso se repite 500 veces.
funcionSimulc=function(n){
SimulNtimesc<-vector("numeric",500)
for (i in 1:500) {
simulNtimesc[i]<-sum(MuestraLoteCargado(n))/n
}
#simulNtimes <- gsub(",", "", simulNtimes) # remove comma
simulNtimesc <- as.numeric(simulNtimesc) # turn into numbers
hist(simulNtimesc,density = 50, main = paste("Histograma plantas enfermas n=", n),
xlab = "Estimador", ylab = "Frecuencia")
linec = mean(simulNtimesc)
abline(v=linec, col="red",lwd=3)
qqnorm(simulNtimesc, xlab="Cuantiles teóricos", ylab="Cuantiles muestrales",las=1,main=paste("Gráfico QQ n=",n))
qqline(simulNtimesc, col = "red")
print(paste("Resumen Estadístico n=",n))
print(summary(simulNtimesc))
print(shapiro.test(simulNtimesc))
}
Vector de los tamaños de muestra
vecMuestrac <- c(5,10,15,20,30,50,60,100,200,500)
for (i in vecMuestrac) {
funcionSimulc(i)
}
## [1] "Resumen Estadístico n= 5"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.0000 0.0000 0.0000 0.1172 0.2000 0.6000
##
## Shapiro-Wilk normality test
##
## data: simulNtimesc
## W = 0.74777, p-value < 2.2e-16
## [1] "Resumen Estadístico n= 10"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.000 0.000 0.100 0.105 0.200 0.600
##
## Shapiro-Wilk normality test
##
## data: simulNtimesc
## W = 0.84434, p-value < 2.2e-16
## [1] "Resumen Estadístico n= 15"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.00000 0.06667 0.13333 0.11040 0.13333 0.33333
##
## Shapiro-Wilk normality test
##
## data: simulNtimesc
## W = 0.91155, p-value < 2.2e-16
## [1] "Resumen Estadístico n= 20"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.0000 0.0500 0.1000 0.1086 0.1500 0.3500
##
## Shapiro-Wilk normality test
##
## data: simulNtimesc
## W = 0.92736, p-value = 7.779e-15
## [1] "Resumen Estadístico n= 30"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.00000 0.06667 0.10000 0.11400 0.16667 0.30000
##
## Shapiro-Wilk normality test
##
## data: simulNtimesc
## W = 0.95997, p-value = 2.049e-10
## [1] "Resumen Estadístico n= 50"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.000 0.080 0.120 0.109 0.140 0.280
##
## Shapiro-Wilk normality test
##
## data: simulNtimesc
## W = 0.97781, p-value = 6.764e-07
## [1] "Resumen Estadístico n= 60"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.01667 0.08333 0.11667 0.11157 0.13333 0.25000
##
## Shapiro-Wilk normality test
##
## data: simulNtimesc
## W = 0.97903, p-value = 1.325e-06
## [1] "Resumen Estadístico n= 100"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.03 0.09 0.11 0.11 0.13 0.22
##
## Shapiro-Wilk normality test
##
## data: simulNtimesc
## W = 0.98277, p-value = 1.201e-05
## [1] "Resumen Estadístico n= 200"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.0500 0.0950 0.1100 0.1099 0.1250 0.1850
##
## Shapiro-Wilk normality test
##
## data: simulNtimesc
## W = 0.99309, p-value = 0.02138
## [1] "Resumen Estadístico n= 500"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.0720 0.1015 0.1100 0.1103 0.1200 0.1560
##
## Shapiro-Wilk normality test
##
## data: simulNtimesc
## W = 0.99527, p-value = 0.1325
Note que para muestras pequeñas para el gráfico QQ se observa un mayor desajuste con la linea recta en los extremos y en la medida que incremente el tamaño de muestra va mejorando la presición de la línea recta, respecto a la hipótesis de normalidad esta al final no se rechaza dado que el sesgo va disminuyendo.
Como conclusión general, se evidencia la teoría planteada en el teorema del límite central, donde el estimador de la proporción para muestras de tamaño grande, converge a la distribución Normal.
La comparación de tratamientos es una práctica fundamental en las ciencias agropecuarias y para esto a nivel estadístico se cuenta con algunas herramientas para apoyar el proceso de toma de decisiones y lograr concluir con algún grado de confianza que los resultados observados en una muestra son representativos y se pueden asociar a los tratamientos y no se deben únicamente al azar. Por medio una simulación validemos algunos de estos resultados.
Lotes de población 1000 y 1500 respectivamente.
LoteC1000 = sample(0:1, 1000, replace=TRUE, prob = c(90,10))
LoteC1500 = sample(0:1, 1500, replace=TRUE, prob = c(90,10))
MuestraLoteCar=function(n,Lote){
return(sample(Lote,n, replace=T))
}
p1=sum(MuestraLoteCar(40,LoteC1000))/40
p2=sum(MuestraLoteCar(40,LoteC1500))/40
p1-p2
## [1] -0.075
simulNtimesCp<-vector("numeric",500)
for (i in 1:500) {
p1=sum(MuestraLoteCar(40,LoteC1000))/40
p2=sum(MuestraLoteCar(40,LoteC1500))/40
simulNtimesCp[i]<-(p1-p2)
}
simulNtimesCp <- as.numeric(simulNtimesCp) # turn into numbers
hist(simulNtimesCp,density = 50, main = "Histograma de diferencias p1-p2",
xlab = "Estimador", ylab = "Frecuencia")
line = mean(simulNtimesCp)
abline(v=line, col="red",lwd=3)
Apoyandonos en el histograma se evidencia simetría en los estimadores calculados. No hay un sesgo notable respecto a la media igual 0. Da un indicio de que al tomar poblaciones de diferente tamaño las muestras que se extraen de ellas de igual tamaño no varian respecto a la proporción de plantas enfermas.
funcionSimulCp=function(n){
SimulNtimesCp<-vector("numeric",500)
for (i in 1:500) {
p1=sum(MuestraLoteCar(n,LoteC1000))/n
p2=sum(MuestraLoteCar(n,LoteC1500))/n
simulNtimesCp[i]<-p1-p2
}
simulNtimesCp <- as.numeric(simulNtimesCp) # turn into numbers
hist(simulNtimesCp,density = 50, main = paste("Histograma p1-p2 para n=", n),
xlab = "Estimador", ylab = "Frecuencia")
line = mean(simulNtimesCp)
abline(v=line, col="red",lwd=3)
qqnorm(simulNtimesCp, xlab="Cuantiles teóricos", ylab="Cuantiles muestrales",las=1,main=paste("Gráfico QQ n=",n))
qqline(simulNtimesCp, col = "red")
print(paste("Resumen Estadístico n=",n))
print(summary(simulNtimesCp))
print(shapiro.test(simulNtimesCp))
}
vecMuestraCp <- c(5,10,15,20,30,50,60,100,200,500)
for (i in vecMuestraCp) {
funcionSimulCp(i)
}
## [1] "Resumen Estadístico n= 5"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.6000 0.0000 0.0000 0.0084 0.2000 0.6000
##
## Shapiro-Wilk normality test
##
## data: simulNtimesCp
## W = 0.89806, p-value < 2.2e-16
## [1] "Resumen Estadístico n= 10"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.4000 -0.1000 0.0000 0.0046 0.1000 0.4000
##
## Shapiro-Wilk normality test
##
## data: simulNtimesCp
## W = 0.95604, p-value = 4.733e-11
## [1] "Resumen Estadístico n= 15"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.333333 -0.066667 0.000000 0.001467 0.066667 0.333333
##
## Shapiro-Wilk normality test
##
## data: simulNtimesCp
## W = 0.96849, p-value = 6.934e-09
## [1] "Resumen Estadístico n= 20"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.3000 -0.0500 0.0000 -0.0072 0.0500 0.3000
##
## Shapiro-Wilk normality test
##
## data: simulNtimesCp
## W = 0.97621, p-value = 2.877e-07
## [1] "Resumen Estadístico n= 30"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.233333 -0.066667 0.000000 -0.003867 0.066667 0.233333
##
## Shapiro-Wilk normality test
##
## data: simulNtimesCp
## W = 0.98206, p-value = 7.772e-06
## [1] "Resumen Estadístico n= 50"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.18000 -0.04000 0.00000 -0.00356 0.04000 0.18000
##
## Shapiro-Wilk normality test
##
## data: simulNtimesCp
## W = 0.98855, p-value = 0.0005927
## [1] "Resumen Estadístico n= 60"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.21667 -0.03333 0.00000 -0.00250 0.03333 0.15000
##
## Shapiro-Wilk normality test
##
## data: simulNtimesCp
## W = 0.98934, p-value = 0.001073
## [1] "Resumen Estadístico n= 100"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.13000 -0.03000 0.00000 -0.00106 0.03000 0.15000
##
## Shapiro-Wilk normality test
##
## data: simulNtimesCp
## W = 0.99132, p-value = 0.004999
## [1] "Resumen Estadístico n= 200"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.08500 -0.02125 0.00000 -0.00082 0.02000 0.10500
##
## Shapiro-Wilk normality test
##
## data: simulNtimesCp
## W = 0.9953, p-value = 0.135
## [1] "Resumen Estadístico n= 500"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.056000 -0.014000 -0.002000 -0.001468 0.012000 0.050000
##
## Shapiro-Wilk normality test
##
## data: simulNtimesCp
## W = 0.99634, p-value = 0.3097
Se observa que a medida que incrementa el tamaño de la muestra la diferencia de la proporción tiene una leve tendencia hacía la izquierda, es posible pensar que si se hace el análisis solo con un tamaño de la muestra, el efecto es causa de la aleatoriedad, pero observando el análisis con varios tamaños de muestra se evidencia que no es causa de la aleatoriedad en una muestra. En conclusión se sospecha que el lote de menor tamaño tiene una tendencia leve hacía proporciones de menor valor.
Lote2C1000 = sample(0:1, 1000, replace=TRUE, prob = c(90,10))
Lote2C1500 = sample(0:1, 1500, replace=TRUE, prob = c(85,15))
funcionSimul2Cp=function(n){
simulNtimes2Cp<-vector("numeric",500)
for (i in 1:500) {
p1=sum(MuestraLoteCar(n,Lote2C1000))/n
p2=sum(MuestraLoteCar(n,Lote2C1500))/n
simulNtimes2Cp[i]<-p1-p2
}
simulNtimes2Cp <- as.numeric(simulNtimes2Cp) # turn into numbers
hist(simulNtimes2Cp,density = 50, main = paste("Histograma p1-p2 para n=", n),
xlab = "Estimador", ylab = "Frecuencia")
line = mean(simulNtimes2Cp)
abline(v=line, col="red",lwd=3)
qqnorm(simulNtimes2Cp, xlab="Cuantiles teóricos", ylab="Cuantiles muestrales",las=1,main=paste("Gráfico QQ n=",n))
qqline(simulNtimes2Cp, col = "red")
print(paste("Resumen Estadístico n=",n))
print(summary(simulNtimes2Cp))
print(shapiro.test(simulNtimes2Cp))
}
vecMuestra2Cp <- c(5,10,15,20,30,50,60,100,200,500)
for (i in vecMuestra2Cp) {
funcionSimul2Cp(i)
}
## [1] "Resumen Estadístico n= 5"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.6000 -0.2000 0.0000 -0.0404 0.0000 0.6000
##
## Shapiro-Wilk normality test
##
## data: simulNtimes2Cp
## W = 0.90727, p-value < 2.2e-16
## [1] "Resumen Estadístico n= 10"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.4000 -0.1000 -0.1000 -0.0484 0.0000 0.4000
##
## Shapiro-Wilk normality test
##
## data: simulNtimes2Cp
## W = 0.95315, p-value = 1.697e-11
## [1] "Resumen Estadístico n= 15"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.40000 -0.13333 -0.06667 -0.04840 0.00000 0.40000
##
## Shapiro-Wilk normality test
##
## data: simulNtimes2Cp
## W = 0.96586, p-value = 2.207e-09
## [1] "Resumen Estadístico n= 20"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.3000 -0.1000 -0.0500 -0.0381 0.0500 0.2500
##
## Shapiro-Wilk normality test
##
## data: simulNtimes2Cp
## W = 0.97716, p-value = 4.745e-07
## [1] "Resumen Estadístico n= 30"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.233333 -0.100000 -0.033333 -0.041467 0.008333 0.200000
##
## Shapiro-Wilk normality test
##
## data: simulNtimes2Cp
## W = 0.98221, p-value = 8.512e-06
## [1] "Resumen Estadístico n= 50"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.24000 -0.08000 -0.04000 -0.03356 0.00000 0.20000
##
## Shapiro-Wilk normality test
##
## data: simulNtimes2Cp
## W = 0.98922, p-value = 0.0009773
## [1] "Resumen Estadístico n= 60"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.20000 -0.08333 -0.03333 -0.04163 0.00000 0.13333
##
## Shapiro-Wilk normality test
##
## data: simulNtimes2Cp
## W = 0.98988, p-value = 0.001616
## [1] "Resumen Estadístico n= 100"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.18000 -0.07000 -0.04000 -0.03976 -0.01000 0.13000
##
## Shapiro-Wilk normality test
##
## data: simulNtimes2Cp
## W = 0.99287, p-value = 0.01778
## [1] "Resumen Estadístico n= 200"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.12000 -0.06500 -0.04000 -0.04036 -0.02000 0.06000
##
## Shapiro-Wilk normality test
##
## data: simulNtimes2Cp
## W = 0.99449, p-value = 0.06877
## [1] "Resumen Estadístico n= 500"
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -0.10000 -0.05600 -0.04200 -0.04276 -0.03000 0.01600
##
## Shapiro-Wilk normality test
##
## data: simulNtimes2Cp
## W = 0.99591, p-value = 0.2214
Se concluye que hay un sesgo notable con respecto a la media 0, pero se conserva la simetría alrededor de la media muestral.
En el primer escenario, el mayor sesgo respecto a la media fue para el tamaño de muestra igual a 500, aún así fue muy leve. En el segundo escenario se observa un valor de media aproximado a -0.06 en todos los casos, consecuencia de tomar un valor de proporción menor de plantas enfermas en un lote que en otro. Variar el tamaño de la población y el valor de la proporción de plantas enfermas hace que poder concluir hacerca del factor que hace que la media permanezca más estable pueda tornarse ambiguo, pero considerando que en el escenario uno la tendencia de la media de la diferencia de las proporciones era levemente negativa, podríamos sospechar que en el escenario 2 esta tendencia de un valor de media estable se deba a que se tomaron proporciones diferentes de plantas enfermas.