Punto 1:

Punto 1.a: Creación de lote de 1000 individuos, 50% “Enfermas”

lote=c(rep("Sanas",500),rep("enfermas",500))
head(lote,100)
##   [1] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [10] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [19] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [28] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [37] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [46] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [55] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [64] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [73] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [82] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [91] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
## [100] "Sanas"

Punto 1.b: Genere una función que permita obtener una muestra aleatoria de la población y calcule el estimador de la proporción muestral para un tamaño de muestra dado n.

cal_sample <- function(n){
  
  muestra = sample(lote,size = n)
  
  promedio = sum(muestra == "enfermas")/n
  
  return(promedio)
}
cal_sample(n=100)
## [1] 0.48

Punto 1.c: Repita el escenario anterior (b) 500 veces y analice los resultados en cuanto alcomportamiento de los 500 estimadores. ¿Qué tan simétricos son los datos?, ¿Son sesgados y qué pasa en cuanto a variabilidad?

cal_sample(n=50)
## [1] 0.64
estimadores= sapply(rep(50,500),cal_sample)
estimadores
##   [1] 0.56 0.40 0.44 0.42 0.54 0.48 0.38 0.54 0.54 0.54 0.48 0.56 0.60 0.48 0.44
##  [16] 0.46 0.54 0.60 0.58 0.50 0.56 0.48 0.58 0.50 0.46 0.44 0.46 0.58 0.48 0.58
##  [31] 0.52 0.50 0.54 0.66 0.50 0.50 0.54 0.48 0.62 0.52 0.44 0.46 0.50 0.58 0.42
##  [46] 0.50 0.46 0.48 0.56 0.44 0.54 0.54 0.52 0.48 0.54 0.58 0.48 0.48 0.46 0.62
##  [61] 0.60 0.58 0.48 0.52 0.46 0.58 0.38 0.56 0.48 0.44 0.52 0.38 0.46 0.56 0.52
##  [76] 0.44 0.46 0.50 0.42 0.54 0.48 0.44 0.42 0.48 0.46 0.46 0.64 0.54 0.44 0.46
##  [91] 0.42 0.46 0.48 0.36 0.56 0.56 0.46 0.54 0.52 0.58 0.60 0.50 0.44 0.62 0.58
## [106] 0.34 0.38 0.44 0.60 0.42 0.50 0.54 0.56 0.44 0.40 0.52 0.70 0.50 0.52 0.54
## [121] 0.46 0.44 0.60 0.56 0.54 0.54 0.56 0.58 0.50 0.52 0.52 0.48 0.48 0.54 0.44
## [136] 0.60 0.58 0.50 0.42 0.56 0.56 0.56 0.60 0.48 0.48 0.50 0.48 0.50 0.54 0.50
## [151] 0.42 0.56 0.52 0.46 0.40 0.34 0.50 0.54 0.42 0.50 0.46 0.38 0.56 0.44 0.50
## [166] 0.38 0.48 0.36 0.50 0.36 0.40 0.48 0.38 0.46 0.58 0.64 0.50 0.52 0.46 0.48
## [181] 0.54 0.52 0.58 0.58 0.62 0.52 0.40 0.54 0.62 0.52 0.40 0.42 0.54 0.48 0.44
## [196] 0.48 0.40 0.58 0.54 0.54 0.50 0.44 0.46 0.56 0.48 0.50 0.30 0.48 0.58 0.46
## [211] 0.44 0.46 0.48 0.54 0.46 0.44 0.46 0.52 0.42 0.46 0.46 0.54 0.42 0.50 0.52
## [226] 0.50 0.52 0.54 0.46 0.42 0.34 0.36 0.48 0.48 0.42 0.48 0.50 0.36 0.48 0.52
## [241] 0.54 0.44 0.42 0.48 0.54 0.42 0.46 0.38 0.52 0.50 0.44 0.62 0.38 0.46 0.54
## [256] 0.56 0.54 0.42 0.48 0.40 0.54 0.46 0.50 0.44 0.50 0.52 0.46 0.64 0.56 0.54
## [271] 0.56 0.50 0.48 0.42 0.60 0.40 0.44 0.48 0.52 0.46 0.62 0.50 0.50 0.50 0.50
## [286] 0.48 0.50 0.58 0.44 0.54 0.58 0.46 0.52 0.44 0.48 0.42 0.60 0.52 0.48 0.66
## [301] 0.62 0.44 0.52 0.54 0.56 0.48 0.52 0.54 0.58 0.44 0.54 0.46 0.46 0.56 0.48
## [316] 0.40 0.46 0.54 0.58 0.54 0.56 0.46 0.56 0.56 0.48 0.52 0.50 0.50 0.40 0.46
## [331] 0.48 0.38 0.40 0.44 0.48 0.32 0.58 0.44 0.60 0.40 0.58 0.56 0.50 0.44 0.46
## [346] 0.48 0.54 0.52 0.54 0.34 0.56 0.34 0.54 0.48 0.48 0.50 0.66 0.56 0.54 0.54
## [361] 0.42 0.50 0.52 0.62 0.54 0.42 0.46 0.62 0.46 0.42 0.46 0.54 0.52 0.56 0.50
## [376] 0.50 0.50 0.58 0.44 0.52 0.48 0.40 0.60 0.60 0.48 0.46 0.52 0.54 0.48 0.44
## [391] 0.34 0.50 0.46 0.52 0.58 0.54 0.52 0.52 0.56 0.46 0.54 0.54 0.62 0.46 0.50
## [406] 0.54 0.52 0.62 0.48 0.56 0.48 0.50 0.52 0.48 0.58 0.50 0.46 0.54 0.58 0.58
## [421] 0.74 0.54 0.38 0.52 0.54 0.50 0.56 0.46 0.48 0.56 0.64 0.52 0.30 0.52 0.50
## [436] 0.72 0.54 0.36 0.60 0.58 0.48 0.46 0.46 0.46 0.58 0.58 0.36 0.42 0.52 0.56
## [451] 0.58 0.58 0.54 0.58 0.48 0.42 0.40 0.50 0.52 0.56 0.52 0.56 0.50 0.54 0.60
## [466] 0.50 0.58 0.50 0.30 0.46 0.38 0.56 0.50 0.62 0.64 0.50 0.62 0.46 0.38 0.58
## [481] 0.50 0.50 0.48 0.52 0.48 0.60 0.52 0.58 0.48 0.52 0.52 0.54 0.48 0.60 0.40
## [496] 0.54 0.50 0.56 0.48 0.54
hist(estimadores)

mean(estimadores)
## [1] 0.5016
sd(estimadores)
## [1] 0.06862404

Análisis: con una muestra de 50, y 500 repeticiones, teniendo por promedio 0.50 y desviación de 0.067, tiende a distribuirse normal, pero la grafica no es tan simetrica.

Punto 1.d: Realice los ejercicios completos b y c para tamaños de muestra n=5, 10, 15, 20, 30, 50, 60, 100, 200, 500. Y compare los resultados de los estimadores en cuanto a la normalidad. Investigue y utilice pruebas de bondad y ajuste (shapiro wilks) y métodos gráficos (grafico qq de normalidad).

cal_sample(n=100)
## [1] 0.54
estimadores= sapply(rep(50,500),cal_sample)
estimadores
##   [1] 0.50 0.50 0.50 0.54 0.56 0.42 0.58 0.56 0.48 0.32 0.52 0.48 0.60 0.50 0.40
##  [16] 0.56 0.48 0.44 0.60 0.50 0.56 0.46 0.56 0.62 0.50 0.52 0.42 0.48 0.62 0.54
##  [31] 0.40 0.40 0.50 0.40 0.58 0.50 0.52 0.56 0.58 0.46 0.60 0.52 0.48 0.50 0.52
##  [46] 0.50 0.50 0.54 0.46 0.54 0.56 0.50 0.62 0.50 0.54 0.38 0.50 0.50 0.50 0.56
##  [61] 0.58 0.48 0.46 0.36 0.48 0.54 0.48 0.52 0.50 0.56 0.58 0.44 0.54 0.50 0.46
##  [76] 0.42 0.44 0.46 0.62 0.54 0.52 0.52 0.56 0.50 0.44 0.48 0.38 0.46 0.44 0.54
##  [91] 0.62 0.46 0.54 0.44 0.54 0.48 0.42 0.50 0.50 0.50 0.48 0.44 0.46 0.44 0.60
## [106] 0.50 0.54 0.44 0.56 0.54 0.56 0.42 0.40 0.44 0.48 0.44 0.50 0.56 0.48 0.66
## [121] 0.58 0.40 0.48 0.44 0.56 0.68 0.50 0.48 0.56 0.48 0.68 0.42 0.42 0.40 0.56
## [136] 0.48 0.58 0.50 0.54 0.52 0.46 0.48 0.54 0.60 0.64 0.52 0.52 0.50 0.48 0.50
## [151] 0.60 0.44 0.48 0.40 0.50 0.42 0.40 0.64 0.52 0.64 0.58 0.56 0.46 0.40 0.52
## [166] 0.52 0.62 0.46 0.66 0.46 0.56 0.52 0.56 0.48 0.54 0.52 0.38 0.46 0.42 0.60
## [181] 0.44 0.42 0.46 0.44 0.44 0.52 0.52 0.38 0.52 0.48 0.52 0.48 0.36 0.48 0.52
## [196] 0.52 0.54 0.46 0.40 0.34 0.48 0.50 0.62 0.72 0.42 0.54 0.48 0.54 0.40 0.46
## [211] 0.40 0.40 0.38 0.36 0.58 0.46 0.54 0.52 0.50 0.50 0.42 0.36 0.48 0.54 0.42
## [226] 0.54 0.56 0.58 0.50 0.50 0.46 0.52 0.56 0.40 0.52 0.44 0.56 0.60 0.46 0.30
## [241] 0.50 0.58 0.40 0.56 0.38 0.52 0.48 0.56 0.44 0.60 0.52 0.54 0.54 0.50 0.46
## [256] 0.52 0.62 0.54 0.36 0.68 0.60 0.42 0.52 0.48 0.42 0.52 0.46 0.50 0.42 0.44
## [271] 0.58 0.56 0.60 0.66 0.44 0.60 0.44 0.56 0.44 0.36 0.42 0.44 0.56 0.44 0.52
## [286] 0.50 0.48 0.52 0.50 0.42 0.52 0.52 0.54 0.60 0.46 0.50 0.48 0.42 0.52 0.50
## [301] 0.44 0.48 0.44 0.42 0.52 0.52 0.54 0.54 0.50 0.64 0.48 0.50 0.48 0.32 0.66
## [316] 0.44 0.50 0.60 0.46 0.60 0.60 0.50 0.48 0.60 0.40 0.52 0.46 0.42 0.50 0.52
## [331] 0.68 0.58 0.46 0.58 0.58 0.52 0.52 0.56 0.48 0.54 0.46 0.40 0.52 0.40 0.58
## [346] 0.48 0.48 0.48 0.48 0.56 0.56 0.42 0.54 0.44 0.50 0.46 0.42 0.38 0.46 0.52
## [361] 0.36 0.36 0.42 0.50 0.48 0.48 0.52 0.62 0.38 0.34 0.58 0.44 0.52 0.54 0.54
## [376] 0.56 0.52 0.56 0.46 0.56 0.54 0.56 0.58 0.58 0.44 0.50 0.48 0.56 0.46 0.50
## [391] 0.32 0.48 0.54 0.52 0.60 0.52 0.52 0.56 0.38 0.38 0.54 0.36 0.60 0.52 0.50
## [406] 0.56 0.58 0.42 0.56 0.48 0.52 0.38 0.44 0.58 0.42 0.46 0.54 0.50 0.46 0.40
## [421] 0.56 0.36 0.58 0.50 0.40 0.46 0.50 0.42 0.50 0.40 0.54 0.52 0.52 0.58 0.44
## [436] 0.50 0.38 0.54 0.48 0.54 0.48 0.64 0.58 0.46 0.44 0.58 0.46 0.46 0.50 0.50
## [451] 0.48 0.54 0.58 0.54 0.52 0.48 0.40 0.52 0.56 0.46 0.66 0.56 0.66 0.48 0.52
## [466] 0.46 0.62 0.46 0.38 0.50 0.44 0.40 0.50 0.54 0.46 0.54 0.42 0.48 0.40 0.48
## [481] 0.40 0.50 0.48 0.58 0.44 0.46 0.36 0.54 0.38 0.50 0.52 0.50 0.52 0.62 0.40
## [496] 0.64 0.56 0.56 0.52 0.52
estimadores5= sapply(rep(5,5000),cal_sample)
estimadores10= sapply(rep(10,5000),cal_sample)
estimadores15= sapply(rep(15,5000),cal_sample)
estimadores20= sapply(rep(20,5000),cal_sample)
estimadores30= sapply(rep(30,5000),cal_sample)
estimadores50= sapply(rep(50,5000),cal_sample)
estimadores60= sapply(rep(60,5000),cal_sample)
estimadores100= sapply(rep(100,5000),cal_sample)
estimadores200= sapply(rep(200,5000),cal_sample)
estimadores500= sapply(rep(500,5000),cal_sample)

resultados = data.frame(estimadores5,estimadores10,estimadores15,estimadores20,estimadores30,estimadores50,estimadores60,estimadores100,estimadores200,estimadores500)

boxplot(resultados)
abline(h=0.5,col="green",lwd=4)

Análisis: Se puede ver que todos los estimadores tienen su promedio cercano al valor del parametro (0.5), sin embargo, al aumentar el tamaño de la muestra, se disminuye la disperción de los datos, esto se evidencia en el tamaño de las cajas, ya que a medida que aumenta el tamaño de la mjuestra, disminuye el tamaño de la caja, y asi mismo, los outliers tambien tienen a disminuir y a estar mas proximos a los cuerpos de las cajas.

Repita toda la simulación (puntos a – d) pero ahora con lotes con 10% y 90% de plantas enfermas. Concluya todo el ejercicio.

Escenario 1: 10% de enfermas

lote10=c(rep("Sanas",900),rep("enfermas",100))
head(lote10,100)
##   [1] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [10] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [19] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [28] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [37] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [46] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [55] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [64] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [73] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [82] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [91] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
## [100] "Sanas"
cal_sample10 <- function(n){
  
  muestra = sample(lote10,size = n)
  
  promedio = sum(muestra == "enfermas")/n
  
  return(promedio)
}
cal_sample10(n=100)
## [1] 0.06

Se evidencia que ahora la el estimador del promedio tiende a ser del 10%

cal_sample10(n=50)
## [1] 0.16
estimadores= sapply(rep(50,500),cal_sample10)
estimadores
##   [1] 0.18 0.06 0.12 0.10 0.04 0.02 0.08 0.06 0.16 0.14 0.10 0.16 0.10 0.10 0.02
##  [16] 0.10 0.08 0.08 0.02 0.08 0.12 0.04 0.10 0.14 0.12 0.16 0.04 0.06 0.08 0.10
##  [31] 0.08 0.06 0.04 0.04 0.10 0.04 0.08 0.12 0.10 0.04 0.14 0.12 0.08 0.14 0.08
##  [46] 0.06 0.06 0.12 0.08 0.06 0.12 0.08 0.04 0.08 0.18 0.14 0.14 0.00 0.12 0.08
##  [61] 0.04 0.14 0.08 0.20 0.06 0.16 0.10 0.10 0.06 0.12 0.12 0.10 0.14 0.08 0.10
##  [76] 0.12 0.04 0.22 0.06 0.08 0.12 0.14 0.10 0.10 0.16 0.12 0.06 0.02 0.08 0.14
##  [91] 0.06 0.12 0.04 0.14 0.08 0.06 0.12 0.08 0.06 0.10 0.12 0.08 0.14 0.10 0.14
## [106] 0.18 0.08 0.10 0.12 0.10 0.08 0.04 0.12 0.12 0.10 0.10 0.08 0.12 0.04 0.06
## [121] 0.14 0.08 0.06 0.14 0.10 0.12 0.08 0.10 0.16 0.06 0.12 0.10 0.18 0.08 0.14
## [136] 0.12 0.14 0.12 0.12 0.18 0.12 0.04 0.14 0.12 0.10 0.12 0.06 0.14 0.10 0.08
## [151] 0.06 0.10 0.10 0.18 0.12 0.08 0.10 0.08 0.12 0.14 0.04 0.02 0.06 0.12 0.14
## [166] 0.06 0.16 0.08 0.16 0.08 0.08 0.10 0.14 0.10 0.08 0.06 0.02 0.20 0.10 0.14
## [181] 0.12 0.12 0.10 0.08 0.24 0.20 0.14 0.10 0.14 0.04 0.12 0.06 0.10 0.10 0.12
## [196] 0.08 0.10 0.04 0.12 0.12 0.10 0.10 0.12 0.08 0.10 0.06 0.08 0.12 0.06 0.06
## [211] 0.04 0.10 0.18 0.06 0.14 0.06 0.12 0.08 0.08 0.20 0.08 0.12 0.10 0.04 0.16
## [226] 0.10 0.14 0.18 0.10 0.10 0.16 0.06 0.04 0.02 0.04 0.10 0.12 0.04 0.10 0.06
## [241] 0.10 0.04 0.08 0.06 0.08 0.12 0.10 0.14 0.14 0.10 0.10 0.16 0.06 0.14 0.18
## [256] 0.12 0.10 0.08 0.06 0.08 0.08 0.10 0.06 0.14 0.10 0.06 0.12 0.12 0.08 0.10
## [271] 0.06 0.02 0.12 0.04 0.16 0.14 0.06 0.10 0.14 0.10 0.12 0.00 0.10 0.04 0.06
## [286] 0.08 0.08 0.08 0.08 0.04 0.16 0.10 0.10 0.10 0.12 0.08 0.14 0.12 0.12 0.08
## [301] 0.16 0.04 0.12 0.12 0.12 0.06 0.06 0.08 0.12 0.04 0.06 0.04 0.08 0.06 0.08
## [316] 0.06 0.06 0.14 0.10 0.10 0.10 0.06 0.08 0.08 0.12 0.16 0.18 0.16 0.16 0.04
## [331] 0.14 0.10 0.12 0.10 0.04 0.12 0.14 0.08 0.06 0.08 0.10 0.12 0.08 0.10 0.06
## [346] 0.12 0.12 0.20 0.06 0.06 0.16 0.04 0.10 0.10 0.12 0.10 0.08 0.10 0.12 0.08
## [361] 0.12 0.12 0.16 0.10 0.04 0.14 0.06 0.08 0.04 0.10 0.08 0.08 0.08 0.10 0.10
## [376] 0.08 0.08 0.02 0.10 0.08 0.06 0.12 0.12 0.12 0.10 0.04 0.16 0.08 0.04 0.06
## [391] 0.06 0.08 0.14 0.06 0.06 0.16 0.16 0.12 0.06 0.16 0.06 0.10 0.08 0.12 0.06
## [406] 0.08 0.10 0.10 0.12 0.06 0.06 0.12 0.16 0.14 0.08 0.16 0.22 0.10 0.08 0.08
## [421] 0.12 0.14 0.08 0.08 0.02 0.06 0.02 0.08 0.02 0.10 0.08 0.06 0.16 0.08 0.10
## [436] 0.10 0.16 0.10 0.08 0.14 0.08 0.16 0.10 0.12 0.12 0.08 0.08 0.12 0.06 0.04
## [451] 0.14 0.10 0.14 0.04 0.08 0.06 0.14 0.08 0.14 0.02 0.12 0.16 0.02 0.06 0.06
## [466] 0.06 0.14 0.08 0.04 0.18 0.16 0.04 0.04 0.02 0.12 0.02 0.20 0.10 0.18 0.10
## [481] 0.08 0.06 0.04 0.10 0.08 0.08 0.08 0.08 0.08 0.10 0.04 0.08 0.20 0.10 0.02
## [496] 0.12 0.08 0.08 0.16 0.06
hist(estimadores)

mean(estimadores)
## [1] 0.09704
sd(estimadores)
## [1] 0.04107814

Análisis: con una muestra de 50, y 500 repeticiones, teniendo por promedio 0.10.

cal_sample10(n=100)
## [1] 0.06
estimadores= sapply(rep(50,500),cal_sample10)
estimadores
##   [1] 0.10 0.08 0.12 0.14 0.10 0.02 0.08 0.12 0.08 0.06 0.12 0.10 0.08 0.10 0.10
##  [16] 0.08 0.10 0.10 0.16 0.10 0.06 0.12 0.04 0.14 0.06 0.18 0.14 0.12 0.02 0.12
##  [31] 0.08 0.04 0.10 0.12 0.06 0.18 0.10 0.24 0.12 0.12 0.12 0.06 0.10 0.08 0.04
##  [46] 0.12 0.08 0.10 0.06 0.14 0.10 0.08 0.22 0.08 0.08 0.06 0.08 0.08 0.10 0.12
##  [61] 0.08 0.06 0.08 0.10 0.06 0.08 0.04 0.16 0.16 0.08 0.00 0.16 0.08 0.18 0.12
##  [76] 0.02 0.16 0.10 0.12 0.04 0.08 0.14 0.12 0.06 0.18 0.10 0.08 0.12 0.04 0.12
##  [91] 0.10 0.12 0.06 0.08 0.08 0.06 0.08 0.04 0.16 0.08 0.08 0.06 0.08 0.08 0.08
## [106] 0.08 0.10 0.20 0.18 0.06 0.08 0.14 0.10 0.16 0.12 0.16 0.06 0.12 0.10 0.08
## [121] 0.06 0.04 0.06 0.16 0.10 0.22 0.06 0.10 0.10 0.06 0.14 0.10 0.08 0.08 0.06
## [136] 0.06 0.06 0.26 0.10 0.10 0.14 0.08 0.08 0.06 0.12 0.08 0.08 0.14 0.12 0.10
## [151] 0.14 0.12 0.12 0.08 0.08 0.12 0.10 0.12 0.10 0.12 0.08 0.12 0.16 0.12 0.08
## [166] 0.12 0.10 0.08 0.16 0.06 0.02 0.12 0.10 0.10 0.12 0.10 0.10 0.08 0.16 0.04
## [181] 0.02 0.08 0.10 0.10 0.14 0.08 0.10 0.08 0.10 0.10 0.14 0.04 0.08 0.18 0.04
## [196] 0.10 0.12 0.04 0.10 0.08 0.18 0.16 0.06 0.10 0.20 0.18 0.08 0.14 0.12 0.08
## [211] 0.04 0.20 0.12 0.14 0.08 0.06 0.06 0.12 0.16 0.08 0.12 0.16 0.18 0.14 0.04
## [226] 0.14 0.10 0.04 0.08 0.14 0.14 0.16 0.14 0.10 0.04 0.08 0.14 0.10 0.12 0.10
## [241] 0.14 0.02 0.10 0.06 0.12 0.14 0.10 0.14 0.12 0.12 0.04 0.16 0.10 0.12 0.12
## [256] 0.12 0.10 0.02 0.08 0.08 0.12 0.10 0.10 0.08 0.08 0.14 0.16 0.10 0.08 0.10
## [271] 0.10 0.04 0.08 0.12 0.14 0.10 0.06 0.06 0.10 0.14 0.04 0.16 0.10 0.12 0.14
## [286] 0.10 0.10 0.16 0.04 0.06 0.08 0.24 0.08 0.10 0.16 0.10 0.04 0.08 0.04 0.10
## [301] 0.08 0.08 0.08 0.08 0.08 0.04 0.16 0.12 0.10 0.02 0.08 0.10 0.08 0.06 0.14
## [316] 0.06 0.12 0.04 0.12 0.06 0.12 0.02 0.08 0.06 0.08 0.18 0.16 0.06 0.12 0.04
## [331] 0.06 0.20 0.12 0.12 0.06 0.20 0.04 0.04 0.04 0.14 0.08 0.06 0.12 0.08 0.00
## [346] 0.24 0.10 0.18 0.14 0.16 0.10 0.06 0.22 0.04 0.08 0.10 0.10 0.08 0.10 0.02
## [361] 0.16 0.06 0.06 0.04 0.08 0.10 0.08 0.04 0.06 0.08 0.16 0.06 0.08 0.08 0.12
## [376] 0.10 0.12 0.04 0.04 0.08 0.12 0.16 0.14 0.12 0.06 0.10 0.04 0.12 0.18 0.08
## [391] 0.14 0.10 0.14 0.16 0.04 0.12 0.06 0.08 0.12 0.14 0.04 0.08 0.12 0.06 0.04
## [406] 0.12 0.10 0.02 0.08 0.18 0.16 0.10 0.12 0.14 0.12 0.12 0.08 0.08 0.06 0.10
## [421] 0.22 0.04 0.12 0.10 0.10 0.12 0.02 0.14 0.10 0.10 0.12 0.06 0.10 0.12 0.12
## [436] 0.12 0.10 0.10 0.10 0.18 0.08 0.08 0.20 0.16 0.08 0.10 0.08 0.08 0.06 0.12
## [451] 0.10 0.02 0.20 0.08 0.12 0.12 0.08 0.14 0.04 0.06 0.08 0.06 0.10 0.04 0.12
## [466] 0.08 0.06 0.06 0.12 0.10 0.12 0.12 0.06 0.04 0.14 0.10 0.24 0.08 0.14 0.12
## [481] 0.06 0.10 0.04 0.06 0.04 0.08 0.12 0.20 0.14 0.08 0.10 0.08 0.16 0.04 0.12
## [496] 0.12 0.18 0.12 0.18 0.10
estimadores5= sapply(rep(5,5000),cal_sample10)
estimadores10= sapply(rep(10,5000),cal_sample10)
estimadores15= sapply(rep(15,5000),cal_sample10)
estimadores20= sapply(rep(20,5000),cal_sample10)
estimadores30= sapply(rep(30,5000),cal_sample10)
estimadores50= sapply(rep(50,5000),cal_sample10)
estimadores60= sapply(rep(60,5000),cal_sample10)
estimadores100= sapply(rep(100,5000),cal_sample10)
estimadores200= sapply(rep(200,5000),cal_sample10)
estimadores500= sapply(rep(500,5000),cal_sample10)

resultados = data.frame(estimadores5,estimadores10,estimadores15,estimadores20,estimadores30,estimadores50,estimadores60,estimadores100,estimadores200,estimadores500)

boxplot(resultados)
abline(h=0.1,col="green",lwd=4)

Se puede ver nuevamente el mismo comportamiento que en la proporción del 50%, mostrando que cada uno de los estimadores orbita cerca al verdadero valor del parametro (10%), pero se ve una disminución en la dispersion de los datos a medida que aumenta el tamaño de la muestra.

Escenario 2: 90% de enfermas

lote90=c(rep("Sanas",100),rep("enfermas",900))
head(lote90,100)
##   [1] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [10] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [19] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [28] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [37] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [46] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [55] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [64] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [73] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [82] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
##  [91] "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas" "Sanas"
## [100] "Sanas"
cal_sample90 <- function(n){
  
  muestra = sample(lote90,size = n)
  
  promedio = sum(muestra == "enfermas")/n
  
  return(promedio)
}
cal_sample90(n=100)
## [1] 0.92

Se evidencia que ahora la el estimador del promedio tiende a ser del 90%

cal_sample90(n=50)
## [1] 0.84
estimadores= sapply(rep(50,500),cal_sample90)
estimadores
##   [1] 0.88 0.82 0.98 0.98 0.84 0.98 0.88 0.94 0.90 0.88 0.88 0.90 0.94 0.86 0.96
##  [16] 0.88 0.92 0.84 0.98 0.92 0.86 0.88 0.92 0.84 0.86 0.86 0.94 0.98 0.92 0.94
##  [31] 0.94 0.94 0.84 0.94 0.90 0.88 0.86 0.90 0.92 0.94 0.92 0.86 0.90 0.86 0.90
##  [46] 0.90 0.86 0.92 0.90 0.98 0.84 0.92 0.94 0.86 0.90 0.84 0.88 0.92 0.90 0.90
##  [61] 0.90 0.90 0.92 0.84 0.90 0.78 0.92 0.90 0.94 0.90 0.88 0.94 0.94 0.94 0.84
##  [76] 0.88 0.92 0.84 0.96 0.90 0.86 0.92 0.88 0.90 0.90 0.86 0.86 0.86 0.92 0.94
##  [91] 0.84 0.88 0.88 0.92 0.88 0.92 0.94 0.92 0.88 0.94 0.92 0.90 0.92 0.86 0.92
## [106] 0.96 0.90 0.92 0.92 0.92 0.84 0.92 0.90 0.88 0.90 0.92 0.92 0.92 0.82 0.90
## [121] 0.86 0.88 0.92 0.86 0.92 0.84 0.90 0.88 0.82 0.94 0.86 0.88 0.90 0.94 0.94
## [136] 0.92 0.96 0.94 0.88 0.90 0.90 0.88 0.94 0.86 0.88 0.94 0.88 0.92 0.88 0.92
## [151] 0.86 0.92 0.94 0.88 0.86 0.86 0.92 0.90 0.88 0.92 0.88 0.86 0.96 0.94 0.92
## [166] 0.92 0.92 0.82 0.92 0.90 0.82 0.94 0.90 0.98 0.90 0.94 0.94 0.90 0.94 0.96
## [181] 0.90 0.80 0.92 0.88 0.86 0.90 0.98 0.88 0.94 0.84 0.94 0.88 0.88 0.92 0.86
## [196] 0.96 0.98 0.94 0.82 0.86 0.90 0.92 0.82 0.88 0.92 0.94 0.94 0.88 0.82 0.86
## [211] 0.94 0.90 0.98 0.94 0.90 0.92 0.88 0.92 0.90 0.90 0.94 0.96 0.88 0.84 0.88
## [226] 0.88 0.90 0.88 0.90 0.96 0.88 0.90 0.86 0.92 0.90 0.94 0.86 0.88 0.90 0.90
## [241] 0.80 0.88 0.90 0.92 0.92 0.90 0.86 0.88 0.88 0.86 0.94 0.94 0.90 0.86 0.86
## [256] 0.86 0.92 0.90 0.90 0.80 0.92 0.88 0.90 0.92 0.90 0.92 0.92 0.86 0.90 0.92
## [271] 0.90 0.80 0.96 0.86 0.86 0.88 0.96 0.90 0.94 0.94 0.86 0.92 0.86 0.92 0.82
## [286] 0.90 0.94 0.92 0.88 0.96 0.90 0.98 0.88 0.90 0.88 0.90 0.90 0.94 0.92 0.92
## [301] 0.96 0.90 0.92 0.94 0.96 0.92 0.92 0.90 0.80 0.86 0.94 0.86 0.88 0.90 0.88
## [316] 0.94 0.86 0.90 0.96 0.88 0.82 0.92 0.86 0.92 0.92 0.88 0.90 0.84 0.90 0.90
## [331] 0.84 0.92 0.92 0.88 0.90 0.88 0.96 0.88 0.90 0.94 0.92 0.84 0.96 0.88 0.94
## [346] 0.98 0.86 0.94 0.84 0.94 0.96 0.94 0.92 0.88 0.88 0.94 0.90 0.92 0.92 0.90
## [361] 0.86 0.82 0.86 0.92 0.92 0.88 0.98 0.90 0.86 0.90 0.90 0.90 0.92 0.98 0.86
## [376] 0.94 0.92 0.88 0.86 0.98 0.80 0.92 0.96 0.88 0.94 0.86 0.88 0.88 0.90 0.90
## [391] 0.92 0.88 0.84 0.92 0.90 0.86 0.90 0.86 0.94 0.92 0.90 0.92 0.90 0.94 0.88
## [406] 0.92 0.90 0.86 0.90 0.90 0.92 0.94 0.94 0.94 0.90 0.96 0.94 0.92 0.88 0.94
## [421] 0.90 0.90 0.90 0.90 0.92 0.98 0.90 0.84 0.92 0.86 0.86 0.94 0.92 0.92 0.92
## [436] 0.86 0.90 0.90 0.96 0.86 0.92 0.84 0.90 0.94 0.96 0.92 0.88 0.94 0.86 0.90
## [451] 0.86 0.88 0.90 0.86 0.78 0.94 0.90 0.94 0.98 0.90 0.96 0.98 0.86 0.94 0.96
## [466] 0.96 1.00 0.92 0.94 0.94 0.88 0.92 0.88 0.84 0.92 0.96 0.98 0.92 0.88 0.92
## [481] 0.96 0.86 0.90 0.96 0.88 0.86 0.88 0.98 0.96 0.92 0.90 0.94 0.86 0.92 0.86
## [496] 0.96 0.96 0.78 0.92 0.96
hist(estimadores)

mean(estimadores)
## [1] 0.9024
sd(estimadores)
## [1] 0.03968614

Análisis: con una muestra de 50, y 500 repeticiones, tendiendo a tener por promedio 0.90 y desviación de 0.04, tiende a distribuirse normal.

cal_sample90(n=100)
## [1] 0.96
estimadores= sapply(rep(50,500),cal_sample90)
estimadores
##   [1] 0.90 0.96 0.92 0.94 0.88 0.88 0.88 0.94 0.94 0.86 1.00 0.94 0.88 0.90 0.96
##  [16] 0.94 0.90 0.92 0.92 0.96 0.92 0.88 0.86 0.94 0.90 0.86 0.92 0.94 0.84 0.94
##  [31] 0.96 0.96 0.96 0.92 0.96 0.88 0.96 0.94 0.96 0.84 0.88 0.92 0.96 0.84 0.94
##  [46] 0.92 0.88 0.88 0.88 0.94 0.94 0.96 0.96 0.88 0.90 0.92 0.94 0.94 0.94 0.84
##  [61] 0.96 0.90 0.90 0.94 0.94 0.88 0.88 0.86 0.90 0.90 0.96 0.96 0.98 0.84 0.84
##  [76] 0.92 0.88 0.88 0.84 0.90 0.96 0.94 0.94 0.82 0.90 0.98 0.88 0.82 0.88 0.86
##  [91] 0.88 0.88 1.00 0.88 0.98 0.90 0.88 0.86 0.90 0.88 0.84 0.94 0.86 0.90 0.90
## [106] 0.84 0.94 0.86 0.90 0.88 0.88 0.94 0.90 0.88 0.92 0.90 0.92 0.92 0.98 0.90
## [121] 0.74 0.84 0.90 0.86 0.90 0.90 0.88 0.92 0.92 0.90 0.90 1.00 0.86 0.88 0.94
## [136] 0.94 0.86 0.94 0.92 0.98 0.94 0.90 0.94 0.80 0.94 0.88 0.90 0.88 0.86 0.90
## [151] 0.88 0.84 0.92 0.84 0.90 0.84 0.90 0.82 0.90 0.92 0.90 0.94 0.88 0.92 0.94
## [166] 0.96 0.92 0.86 0.96 0.96 0.86 0.92 0.90 0.88 0.96 0.90 0.88 0.92 0.92 0.94
## [181] 0.86 0.88 0.86 0.94 0.92 0.90 0.88 0.90 0.96 0.96 0.88 0.86 0.88 0.94 0.92
## [196] 0.90 0.90 0.92 0.86 0.96 0.88 0.86 0.90 0.82 0.96 0.84 0.94 0.80 0.86 0.92
## [211] 0.92 0.86 0.92 0.82 0.90 0.94 0.90 0.92 0.82 0.96 0.90 0.98 0.92 0.90 0.90
## [226] 0.88 0.98 0.98 0.98 0.84 0.80 0.90 0.90 0.88 0.94 0.94 0.90 0.92 0.82 0.90
## [241] 0.86 0.90 0.98 0.92 0.84 0.90 0.90 0.88 0.88 0.90 0.88 0.94 0.90 0.86 0.88
## [256] 0.88 0.96 0.88 0.92 0.84 0.92 0.90 0.94 0.90 0.88 0.94 0.88 0.92 0.94 0.98
## [271] 0.90 0.96 0.88 0.96 0.92 0.86 0.88 0.92 0.82 0.90 0.86 0.88 0.92 0.92 0.90
## [286] 0.94 0.84 0.92 0.94 0.84 0.80 0.96 0.86 0.96 0.88 0.92 0.96 0.90 0.92 0.84
## [301] 0.90 0.90 0.92 0.90 0.90 0.94 0.90 0.94 0.80 0.94 0.92 0.94 0.84 0.92 0.84
## [316] 0.84 0.86 0.94 0.86 0.92 0.92 0.84 0.90 0.92 0.88 0.94 0.92 0.88 0.94 0.90
## [331] 0.92 0.92 0.88 0.88 0.86 0.88 0.90 0.94 0.84 0.96 0.90 0.88 0.92 0.84 0.88
## [346] 0.90 0.90 0.92 0.94 0.92 0.92 0.84 0.92 0.88 0.90 0.92 0.94 0.86 0.92 0.92
## [361] 0.86 0.88 0.92 0.78 0.96 0.88 0.92 0.96 0.94 0.96 0.84 0.92 0.96 0.92 0.86
## [376] 0.86 0.90 0.88 0.90 0.92 0.90 0.92 0.90 0.88 0.94 0.88 0.82 0.86 0.90 0.92
## [391] 0.90 0.80 0.94 0.90 0.96 0.90 0.94 0.80 0.90 0.94 0.88 0.92 0.92 0.88 0.94
## [406] 0.92 0.92 0.94 0.94 0.84 0.94 0.92 0.92 0.88 0.90 0.86 0.78 0.94 0.86 0.92
## [421] 0.88 0.92 0.94 1.00 0.86 0.88 0.84 0.86 0.92 0.96 0.94 0.86 0.96 0.92 0.86
## [436] 0.96 0.86 0.86 0.90 0.88 0.94 0.90 0.90 0.90 0.90 0.94 0.84 0.88 0.94 0.96
## [451] 0.78 0.92 0.86 0.86 0.92 0.96 0.82 0.88 0.92 0.94 0.94 0.90 0.90 0.88 0.94
## [466] 0.88 0.90 0.92 0.90 0.90 0.90 0.84 0.96 0.94 0.90 0.92 0.86 0.96 0.96 0.88
## [481] 0.86 0.88 0.86 0.96 0.92 0.90 0.92 0.96 0.88 0.90 0.88 0.86 0.90 0.84 0.86
## [496] 0.90 0.94 0.86 0.92 0.94
estimadores5= sapply(rep(5,5000),cal_sample90)
estimadores10= sapply(rep(10,5000),cal_sample90)
estimadores15= sapply(rep(15,5000),cal_sample90)
estimadores20= sapply(rep(20,5000),cal_sample90)
estimadores30= sapply(rep(30,5000),cal_sample90)
estimadores50= sapply(rep(50,5000),cal_sample90)
estimadores60= sapply(rep(60,5000),cal_sample90)
estimadores100= sapply(rep(100,5000),cal_sample90)
estimadores200= sapply(rep(200,5000),cal_sample90)
estimadores500= sapply(rep(500,5000),cal_sample90)

resultados = data.frame(estimadores5,estimadores10,estimadores15,estimadores20,estimadores30,estimadores50,estimadores60,estimadores100,estimadores200,estimadores500)

boxplot(resultados)
abline(h=0.9,col="green",lwd=4)

Se puede ver nuevamente que todos los estimadores se tienen su media sobre un valor muy cercano al del parametro (90%), sin embargo, a medida que aumenta la muestra, la desviación estandar y por ende, la dispersión de los datos tiende a disminuir.

Conclusión: Análizando el comportamiento de los 3 experimientos, se puede concluir que el efecto que tiene el tamaño de la muestra en la desviación estandar, no depende de la proporción real de casos “enfermos”, mostrando que existe una relación inversa entre el tamaño de la muestra y la desviación estandar.

Punto 2.

2.a: Suponga un escenario en el cual usted aplicó tratamientos diferentes a dos lotes y desea analizar si alguno de los dos presenta un mejor desempeño en el control de una plaga presente en ambos al momento inicial. Para ello utilizará como criterio de desempeño el tratamiento que menor % de plantas enfermas presente después de un tiempo de aplicación (es decir, si se presentan o no diferencias en las proporciones de enfermos P1 y P2). Realice una simulación en la cual genere dos poblaciones de N1=1000 (Lote1) y N2=1500 (Lote2), además asuma que el porcentaje de individuos (plantas) enfermas en ambos lotes sea la misma 10% (es decir, sin diferencias entre los tratamientos).

Lote1 = c(rep("sanas",900),rep("enfermas",100))
Lote2 = c(rep("sanas",1350),rep("enfermas",150))

2.b: una función que permita obtener una muestra aleatoria de los lotes y calcule el estimador de la proporción muestral para cada lote (p1 y p2) para un tamaño de muestra dado n1=n2. Calcule la diferencia entre los estimadores p1-p2.

dif_proms <- function(n){
  
  sample1 = sample(Lote1,n)
  sample2 = sample(Lote2,n)
  
  X1 = sum(sample1=="enfermas")/n
  X2 = sum(sample2=="enfermas")/n
  
  diferencia = X1-X2
  return(diferencia)
}

dif_proms(50)
## [1] 0

2.c: Repita el escenario anterior (b) 500 veces y analice los resultados en cuanto al comportamiento de los 500 estimadores (diferencias p1-p2). ¿Qué tan simétricos son los datos?, ¿Son siempre cero las diferencias?

dif_proms(n=50)
## [1] 0.06
estimador = sapply(rep(50,500),dif_proms)
estimador
##   [1] -0.04  0.02 -0.08 -0.04 -0.06  0.04  0.06  0.04  0.00 -0.02  0.02  0.10
##  [13]  0.02 -0.02 -0.04 -0.08 -0.08  0.00 -0.04 -0.06 -0.10  0.08  0.06  0.06
##  [25]  0.00  0.08  0.02  0.06  0.04  0.02 -0.04  0.04  0.02  0.06  0.00  0.08
##  [37]  0.10 -0.06  0.04 -0.06 -0.08  0.02  0.00  0.08  0.06  0.10 -0.06 -0.06
##  [49] -0.04 -0.08  0.00  0.06  0.02 -0.12 -0.02  0.06  0.02  0.06  0.00  0.00
##  [61] -0.04 -0.02  0.12  0.10  0.04 -0.04  0.02 -0.02  0.00  0.04  0.04 -0.06
##  [73]  0.08  0.04 -0.06  0.04  0.06 -0.02  0.02  0.00 -0.04 -0.02 -0.04 -0.02
##  [85]  0.02  0.04 -0.04 -0.04  0.14  0.08  0.14  0.04 -0.10  0.08  0.08 -0.06
##  [97]  0.00  0.06  0.00  0.02 -0.12  0.06 -0.04  0.00 -0.06 -0.10  0.04  0.00
## [109]  0.02 -0.06 -0.16  0.02  0.00  0.00  0.10  0.08  0.02  0.04  0.02  0.08
## [121]  0.00  0.06  0.06 -0.14  0.02  0.08 -0.04 -0.02 -0.02  0.00  0.08  0.04
## [133]  0.00 -0.08 -0.06 -0.06  0.16 -0.06  0.06 -0.02  0.02  0.06  0.04  0.02
## [145]  0.02  0.06  0.02 -0.04  0.04  0.04  0.06  0.04  0.04  0.04  0.06 -0.02
## [157]  0.02  0.02 -0.06  0.06  0.06  0.00 -0.06  0.08  0.06 -0.02  0.00  0.00
## [169]  0.00 -0.06  0.00  0.06  0.00  0.06 -0.08  0.04  0.02  0.02  0.00  0.00
## [181]  0.00  0.02  0.08  0.02  0.04  0.02 -0.02  0.02 -0.08 -0.02  0.02 -0.02
## [193] -0.02 -0.06  0.12 -0.10  0.04 -0.08 -0.12  0.02  0.00  0.06  0.00 -0.12
## [205]  0.08 -0.06 -0.06  0.02  0.02  0.02  0.04 -0.02 -0.06  0.10  0.10 -0.02
## [217]  0.00  0.00 -0.10  0.00  0.08  0.00  0.02 -0.08  0.04  0.06  0.00  0.08
## [229]  0.02  0.00  0.02  0.00  0.06  0.04  0.02  0.06 -0.08 -0.02  0.04 -0.06
## [241]  0.00  0.04 -0.02  0.04  0.00  0.00 -0.02 -0.16  0.04  0.02  0.06 -0.04
## [253] -0.08  0.04  0.04 -0.02  0.00  0.10  0.02 -0.04 -0.04  0.00 -0.02 -0.08
## [265]  0.04 -0.10  0.00 -0.02 -0.06  0.00  0.02  0.00 -0.06 -0.02 -0.02 -0.18
## [277]  0.12  0.04 -0.04 -0.06  0.00 -0.02  0.10  0.02 -0.02 -0.04 -0.06  0.00
## [289]  0.10  0.02  0.10  0.10  0.00 -0.02 -0.06  0.06  0.06  0.08 -0.06 -0.04
## [301] -0.08 -0.02  0.02  0.00  0.04  0.00 -0.02  0.04 -0.02 -0.06  0.10  0.00
## [313] -0.16 -0.08  0.04  0.08  0.06  0.02 -0.10 -0.02 -0.10 -0.10 -0.04 -0.06
## [325]  0.16  0.10  0.02  0.02 -0.08  0.04  0.06 -0.10  0.00  0.06  0.00 -0.06
## [337]  0.00 -0.04  0.00  0.00  0.04 -0.10  0.00  0.04  0.02  0.00 -0.08 -0.02
## [349] -0.04 -0.02  0.02 -0.04  0.02 -0.04  0.00  0.06  0.00  0.02  0.02 -0.06
## [361] -0.16  0.02 -0.02 -0.04  0.10 -0.04  0.00  0.02  0.00  0.00  0.00  0.04
## [373]  0.08  0.04 -0.08  0.08  0.10 -0.08 -0.04  0.00  0.02  0.02  0.08  0.06
## [385]  0.00 -0.04  0.06  0.00  0.00 -0.06 -0.04 -0.04  0.06 -0.02  0.02  0.04
## [397] -0.08 -0.02  0.04 -0.06 -0.02 -0.04  0.08  0.02  0.02 -0.08 -0.06 -0.08
## [409] -0.12 -0.04  0.00  0.00 -0.02  0.06  0.06 -0.02  0.10  0.06  0.00  0.02
## [421]  0.04 -0.06 -0.02 -0.02 -0.06  0.04 -0.10 -0.02  0.06 -0.02  0.00  0.00
## [433]  0.10  0.08  0.08  0.04 -0.04 -0.04  0.02 -0.04 -0.10 -0.06  0.06  0.06
## [445]  0.02 -0.08  0.04  0.04  0.02 -0.06  0.02 -0.02 -0.08  0.04  0.12  0.12
## [457]  0.06  0.04  0.04  0.06 -0.02 -0.04 -0.02  0.00 -0.02 -0.02  0.04  0.00
## [469] -0.08  0.00  0.02 -0.08 -0.04  0.02  0.04 -0.10  0.02  0.00  0.02  0.04
## [481]  0.04  0.02  0.00 -0.06  0.00 -0.04  0.04 -0.02  0.00 -0.06 -0.02 -0.10
## [493]  0.12 -0.06  0.06  0.00  0.06 -0.04  0.02 -0.04
hist(estimador)

Análisis: Se puede ver que la distribución de las diferencias de proporciones esta centrada en el 0, lo cual indica NO que existe una diferencia entre los individuos “enfermos” de P1 y de P2.

2.d: Realice los puntos b y c para tamaños de muestra n1=n2=5, 10, 15, 20, 30, 50, 60, 100, 200, 500. Y compare los resultados de los estimadores (p1-p2) en cuanto a la normalidad. También analice el comportamiento de las diferencias y evalúe. ¿Considera que es más probable concluir que existen diferencias entre los tratamientos con muestras grandes que pequeñas, es decir, cuál considera usted que es el efecto del tamaño de muestra en el caso de la comparación de proporciones?

estimadores5= sapply(rep(5,5000),dif_proms)
estimadores10= sapply(rep(10,5000),dif_proms)
estimadores15= sapply(rep(15,5000),dif_proms)
estimadores20= sapply(rep(20,5000),dif_proms)
estimadores30= sapply(rep(30,5000),dif_proms)
estimadores50= sapply(rep(50,5000),dif_proms)
estimadores60= sapply(rep(60,5000),dif_proms)
estimadores100= sapply(rep(100,5000),dif_proms)
estimadores200= sapply(rep(200,5000),dif_proms)
estimadores500= sapply(rep(500,5000),dif_proms)

resultados = data.frame(estimadores5,estimadores10,estimadores15,estimadores20,estimadores30,estimadores50,estimadores60,estimadores100,estimadores200,estimadores500)

boxplot(resultados)
abline(h=0.0,col="green",lwd=4)

Análisis: Al graficar los estimadores de diferencia de promedios se puede ver nuevamente que la dispersión de los datos tiende a diminuir a medida que aumenta el tamaño de la muestra, lo cual esta alineado con lo encontrado en el punto 1. Por otro lado,se puede ver todos las medias de los estimadores estan sobre línea 0, lo cúal indica que estadisticamente las dos proporciones no son diferentes, y esto hace sentido al análisis, ya que los dos parametros (P1 y P2) son iguales (10%)

2.e:Ahora realice nuevamente los puntos a-d bajo un escenario con dos lotes, pero de proporciones de enfermos diferentes (P1=0.1 y P2=0.15), es decir, el tratamiento del lote 1 si presentó un mejor desempeño reduciendo en un 5% el porcentaje de enfermos. Bajo este nuevo escenario compare la distribución de estas diferencias (p1- p2) con las observadas bajo igualdad de condiciones en los lotes. ¿Qué puede concluir? ¿Existen puntos en los cuales es posible que se observen diferencias de p1- p2 bajo ambos escenarios (escenario 1: sin diferencias entre P1 y P2, escenario 2: diferencia de 5%)?

Lote12 = c(rep("sanas",900),rep("enfermas",100))
Lote22 = c(rep("sanas",1275),rep("enfermas",225))
dif_proms2 <- function(n){
  
  sample1 = sample(Lote12,n)
  sample2 = sample(Lote22,n)
  
  X1 = sum(sample1=="enfermas")/n
  X2 = sum(sample2=="enfermas")/n
  
  diferencia = X1-X2
  return(diferencia)
}

dif_proms(50)
## [1] 0.08
dif_proms(n=50)
## [1] -0.06
estimador = sapply(rep(50,500),dif_proms2)
estimador
##   [1] -0.10 -0.04  0.06 -0.04 -0.06  0.02 -0.06 -0.08 -0.02 -0.12 -0.04 -0.18
##  [13] -0.02 -0.04  0.08 -0.04 -0.04 -0.02 -0.06 -0.06  0.04 -0.06  0.04  0.04
##  [25] -0.10 -0.04 -0.04 -0.02 -0.06  0.06 -0.10 -0.08 -0.14 -0.04 -0.06 -0.08
##  [37] -0.02 -0.02 -0.08 -0.06 -0.06 -0.02 -0.10 -0.04 -0.02 -0.08 -0.02 -0.04
##  [49]  0.02 -0.02 -0.14  0.00 -0.12  0.00 -0.06  0.00  0.04 -0.10  0.14  0.00
##  [61] -0.04  0.02 -0.06 -0.04 -0.14 -0.10 -0.02  0.04 -0.14 -0.18 -0.04 -0.16
##  [73] -0.04 -0.10 -0.04 -0.02  0.00 -0.20 -0.10 -0.02 -0.02 -0.10 -0.16 -0.08
##  [85] -0.04 -0.06 -0.06 -0.06  0.04 -0.14 -0.10  0.00  0.04 -0.04 -0.06 -0.06
##  [97]  0.04 -0.04 -0.06 -0.02  0.00 -0.14 -0.10 -0.02 -0.10  0.08 -0.18  0.10
## [109]  0.02  0.02 -0.06 -0.10  0.00 -0.06 -0.02 -0.16  0.08  0.04 -0.02  0.02
## [121] -0.18 -0.02 -0.12 -0.04 -0.12 -0.04 -0.04  0.04  0.00 -0.10 -0.06  0.00
## [133] -0.04 -0.12  0.10 -0.06 -0.18 -0.04 -0.12  0.02 -0.02 -0.02 -0.02  0.00
## [145] -0.02 -0.08 -0.08 -0.06 -0.04 -0.02 -0.08 -0.04  0.04 -0.10 -0.12 -0.08
## [157] -0.12 -0.08 -0.10 -0.06 -0.06 -0.06 -0.14 -0.10  0.02 -0.08 -0.04 -0.06
## [169] -0.06 -0.02  0.02  0.00 -0.06 -0.10 -0.06 -0.16 -0.06 -0.22  0.02 -0.04
## [181]  0.02 -0.14 -0.06 -0.04 -0.08  0.00 -0.14  0.02 -0.08 -0.06 -0.02 -0.12
## [193] -0.10  0.02 -0.16 -0.08 -0.08 -0.04 -0.02 -0.10 -0.02 -0.18 -0.12  0.00
## [205]  0.02 -0.04 -0.06 -0.06 -0.04 -0.12 -0.08 -0.02 -0.18  0.00 -0.08 -0.08
## [217]  0.02 -0.12  0.00 -0.04 -0.06  0.04 -0.04 -0.08 -0.12 -0.06  0.06 -0.04
## [229] -0.04  0.00  0.00  0.08 -0.06 -0.04 -0.02 -0.02 -0.22 -0.08 -0.16 -0.02
## [241] -0.16 -0.06  0.04 -0.12 -0.04 -0.08  0.00 -0.02 -0.06 -0.08 -0.04  0.00
## [253] -0.08  0.00  0.02  0.04  0.08 -0.06 -0.02 -0.02  0.06 -0.10  0.02 -0.02
## [265] -0.08 -0.12  0.00 -0.04 -0.04 -0.04 -0.06 -0.14  0.00 -0.14 -0.06  0.02
## [277] -0.10  0.00 -0.08  0.06 -0.10  0.00 -0.04 -0.20 -0.04 -0.06 -0.08 -0.08
## [289] -0.10 -0.10 -0.14 -0.06 -0.10 -0.08 -0.02 -0.06  0.04  0.02  0.04 -0.02
## [301] -0.02  0.12 -0.24  0.04  0.04 -0.06  0.00  0.04 -0.12 -0.02 -0.08 -0.08
## [313]  0.06 -0.14 -0.04 -0.04 -0.12 -0.14 -0.16  0.14 -0.08 -0.10  0.00 -0.04
## [325]  0.12  0.00 -0.06 -0.18  0.12 -0.02  0.08 -0.06 -0.18 -0.08 -0.06 -0.10
## [337] -0.02  0.08  0.00 -0.06 -0.02 -0.14 -0.04 -0.04  0.08  0.00 -0.18 -0.12
## [349] -0.12  0.02 -0.06 -0.02  0.04 -0.04 -0.02  0.04 -0.02  0.00  0.04 -0.08
## [361]  0.00 -0.04 -0.04 -0.06  0.00 -0.12 -0.04 -0.12 -0.04  0.00 -0.08 -0.06
## [373] -0.06  0.00 -0.02 -0.14 -0.04 -0.06 -0.06  0.00 -0.10 -0.02 -0.10 -0.06
## [385]  0.02  0.00 -0.08 -0.04 -0.08 -0.04  0.02 -0.04 -0.10  0.06  0.00 -0.02
## [397] -0.06 -0.10 -0.08  0.00 -0.02 -0.10 -0.08 -0.06 -0.06 -0.06 -0.08 -0.06
## [409] -0.06 -0.06 -0.08  0.00  0.00 -0.08 -0.02  0.06 -0.04 -0.10  0.02 -0.10
## [421]  0.12 -0.08 -0.02 -0.14  0.04 -0.22  0.08 -0.10 -0.12 -0.10 -0.12 -0.02
## [433] -0.12  0.02 -0.06 -0.04 -0.02  0.06 -0.04  0.00  0.00 -0.04 -0.16 -0.10
## [445] -0.08 -0.02 -0.14 -0.04  0.02 -0.04 -0.10  0.08 -0.08  0.04  0.00 -0.02
## [457] -0.10 -0.02 -0.14 -0.06 -0.12 -0.06 -0.06  0.08  0.06  0.06 -0.10 -0.10
## [469] -0.10 -0.06 -0.10  0.02 -0.08  0.02 -0.02 -0.12 -0.06  0.08  0.06 -0.08
## [481] -0.08 -0.18 -0.02 -0.08 -0.12 -0.08 -0.10 -0.06  0.00 -0.04  0.06 -0.16
## [493] -0.04  0.04 -0.08 -0.14 -0.02 -0.02  0.04 -0.22
hist(estimador)

Análisis: Se puede ver que la distribución de las diferencias de proporciones esta centrada a la izquierda del 0, lo cual indica que existe una diferencia entre los individuos “enfermos” de P1 y de P2

estimadores5= sapply(rep(5,5000),dif_proms2)
estimadores10= sapply(rep(10,5000),dif_proms2)
estimadores15= sapply(rep(15,5000),dif_proms2)
estimadores20= sapply(rep(20,5000),dif_proms2)
estimadores30= sapply(rep(30,5000),dif_proms2)
estimadores50= sapply(rep(50,5000),dif_proms2)
estimadores60= sapply(rep(60,5000),dif_proms2)
estimadores100= sapply(rep(100,5000),dif_proms2)
estimadores200= sapply(rep(200,5000),dif_proms2)
estimadores500= sapply(rep(500,5000),dif_proms2)

resultados = data.frame(estimadores5,estimadores10,estimadores15,estimadores20,estimadores30,estimadores50,estimadores60,estimadores100,estimadores200,estimadores500)

boxplot(resultados)
abline(h=0.0,col="green",lwd=4)

Análisis: Al analizar el gráfico de cajas para los estimadores, se puede ver nuevamente la relación entre el tamaño de la muestra y la dispersión de los datos, sin embargo, se puede ver que las medias de cada uno de los estimadores esta por debajo del 0, lo cual muestra que la proporción de individuos “enfermos” en la P1 es inferior que los “enfermos” de P2.