El Teorema del Límite Central es uno de los más importantes en la inferencia estadística y habla sobre la convergencia de los estimadores como la proporción muestral a la distribución normal. Algunos autores afirman que esta aproximación es bastante buena a partir del umbral n>30.
#### A. Parametro = P = 500/1000 = 0.50 = 50%
set.seed(0)
Lote<-c(rep("Enfermas",500),rep("Sanas",500))
Se empleo un tamaño de muestra n=100.
set.seed(0)
plantas_enfermas=function(n){
muestra=sample(Lote,size = n)
return(sum(muestra=="Enfermas")/n)
}
plantas_enfermas(n = 100)
## [1] 0.46
set.seed(0)
plantas_enfermas=function(n){
muestra=sample(Lote,size = n)
return(sum(muestra=="Enfermas")/n)
}
Estimadores=sapply(rep(100,500), plantas_enfermas)
¿Qué tan simétricos son los datos?
library("moments")
skewness(Estimadores)
## [1] 0.01749204
kurtosis(Estimadores)
## [1] 3.140607
par(mfrow=c(1,2))
hist(Estimadores,main="Histograma de estimadores P=0.50",ylab="Frecuencia",col="pink")
boxplot(Estimadores,main="Boxplot de estimadores")
Dado que el indicador de asimetría es de 0.01749204 y la curtosis 3.140607, se puede considerar que la distribución de los datos es lepticúrtica y presenta una leve asimetría positiva. En los graficos se puede observar que los datos se concentran alrededor del valor del parámetro (0.50).
¿Son sesgados y qué pasa en cuanto a variabilidad?
Sesgo=mean(Estimadores)-0.50
Sesgo
## [1] 0.00114
sd(Estimadores)
## [1] 0.04614281
El sesgo del estimador es de 0.00114, y la desviación estandar es baja por lo cual se puede considerar que los datos se concentran alrededor de la media.
# Literal B.
set.seed(0)
plantas_enfermas=function(n){
muestra=sample(Lote,size = n)
return(sum(muestra=="Enfermas")/n)
}
S<-sapply(c(5,10,15,20,30,50,60,100,200,500), plantas_enfermas)
data.frame(Tamaño_muestra_n=c(5,10,15,20,30,50,60,100,200,500),Estimador= S)
## Tamaño_muestra_n Estimador
## 1 5 0.4000000
## 2 10 0.6000000
## 3 15 0.3333333
## 4 20 0.3500000
## 5 30 0.6333333
## 6 50 0.4400000
## 7 60 0.5333333
## 8 100 0.4600000
## 9 200 0.5150000
## 10 500 0.4960000
Se puede observar que a mayor tamaño de muestra (n) el estimador tiende a aproximarse con mayor exactitud al valor del parámetro.
# Literal C.
set.seed(0)
plantas_enfermas=function(n){
muestra=sample(Lote,size = n)
return(sum(muestra=="Enfermas")/n)
}
ntamaños=c(5,10,15,20,30,50,60,100,200,500)
estimadores<-data.frame(matrix(NA,nrow=500,ncol=length(ntamaños)))
for (i in 1:10) {
estimadores[,i]=sapply(rep(ntamaños[i],500), plantas_enfermas)
}
# compare los resultados de los estimadores en cuanto a la normalidad. Investigue y utilice pruebas de bondad y ajuste (shapiro wilks) y métodos gráficos (grafico qq de normalidad)
St<-c()
for (i in 1:10) {
St[i]<-shapiro.test(estimadores[,i])$p.value
}
data.frame(Tamaño_muestra_n=c(5,10,15,20,30,50,60,100,200,500),Valor_P=St)
## Tamaño_muestra_n Valor_P
## 1 5 4.804487e-15
## 2 10 1.196627e-09
## 3 15 3.075849e-08
## 4 20 7.170556e-06
## 5 30 1.802550e-04
## 6 50 5.310096e-04
## 7 60 4.993082e-04
## 8 100 5.015948e-02
## 9 200 1.409295e-01
## 10 500 9.194540e-02
A partir del tamaño de muestra n=100, se puede apreciar que el Valor P de la prueba de normalidad shapiro wilks es mayor al nivel de significancia 0,05 por lo cual, se puede considerar que los estimadores obtenidos en la simulación tienen una distribución normal cuando en n es mayor o igual a 100.
par(mfrow=c(2, 5))
v<-c(5,10,15,20,30,50,60,100,200,500)
for (l in v) {
for (i in 1:10) {
l=v[i]
qqnorm(estimadores[,i], main = bquote(~ Tamaño_muestra_n== .(l)))
qqline(estimadores[,i],col="red")
}
}
En el grafico anterior se puede apreciar que a menor tamaño de muestra los estimadores no se ajustan a la linea roja, es decir, parecen no estar distribuidos normalmente, mientras que a mayor tamaño de muestra los puntos de los estimadores se ajustan a la recta (Son normales).
par(mfrow=c(2, 5))
v<-c(5,10,15,20,30,50,60,100,200,500)
for (l in v) {
for (i in 1:10) {
l=v[i]
hist(estimadores[,i],main = bquote(~ Tamaño_muestra_n== .(l)), xlab = "Estimadores")
}
}
En el grafico anterior se puede apreciar que a mayor tamaño de muestra los estimadores parecen comportarse como una distribución normal, y se concentran en mayor cantidad alrededor del parámetro (0.50).
# A.
set.seed(0)
Lote2<-c(rep("Enfermas",100),rep("Sanas",900))
# B. Se selecciona una muestra aleatoria de n=100 y se calcula el estimador de la proporción muestral
set.seed(0)
plantas_enfermas2=function(n){
muestra=sample(Lote2,size = n)
return(sum(muestra=="Enfermas")/n)
}
plantas_enfermas2(n = 100)
## [1] 0.07
# C. Repita el escenario anterior 500 veces y analice los resultados en cuanto al comportamiento de los 500 estimadores.
set.seed(0)
plantas_enfermas2=function(n){
muestra=sample(Lote2,size = n)
return(sum(muestra=="Enfermas")/n)
}
Estimadores2=sapply(rep(100,500), plantas_enfermas2)
¿Qué tan simétricos son los datos?
skewness(Estimadores2)
## [1] 0.2316654
kurtosis(Estimadores2)
## [1] 3.363282
par(mfrow=c(1,2))
hist(Estimadores2, main="Histograma de estimadores P=0.10",ylab="Frecuencia",col="Blue")
boxplot(Estimadores2, main="Boxplot de estimadores")
Dado que el indicador de asimetría es de 0.2316654 y la curtosis 3.363282, se puede considerar que la distribución de los datos es lepticúrtica y presenta asimetría positiva. En los graficos se puede observar que los datos se concentran alrededor del valor del parámetro (0.10).
¿Son sesgados y qué pasa en cuanto a variabilidad?
Sesgo=mean(Estimadores2)-0.10
Sesgo
## [1] -0.00056
sd(Estimadores2)
## [1] 0.02829997
El sesgo del estimador es de -0.00056, y la desviación estandar es baja por lo cual se puede considerar que los datos se concentran alrededor de la media.
# D.
# Literal B.
set.seed(0)
plantas_enfermas2=function(n){
muestra=sample(Lote2,size = n)
return(sum(muestra=="Enfermas")/n)
}
S2<-sapply(c(5,10,15,20,30,50,60,100,200,500), plantas_enfermas2)
data.frame(Tamaño_muestra_n=c(5,10,15,20,30,50,60,100,200,500),Estimador= S2)
## Tamaño_muestra_n Estimador
## 1 5 0.00000000
## 2 10 0.00000000
## 3 15 0.06666667
## 4 20 0.00000000
## 5 30 0.13333333
## 6 50 0.06000000
## 7 60 0.11666667
## 8 100 0.09000000
## 9 200 0.10000000
## 10 500 0.10200000
Se puede observar que a mayor tamaño de muestra (n) el estimador tiende a aproximarse con mayor exactitud al valor del parámetro (0.10).
# Literal C.
set.seed(0)
plantas_enfermas2=function(n){
muestra=sample(Lote2,size = n)
return(sum(muestra=="Enfermas")/n)
}
ntamaños=c(5,10,15,20,30,50,60,100,200,500)
estimadores2<-data.frame(matrix(NA,nrow=500,ncol=length(ntamaños)))
for (i in 1:10) {
estimadores2[,i]=sapply(rep(ntamaños[i],500), plantas_enfermas2)
}
# compare los resultados de los estimadores en cuanto a la normalidad. Investigue y utilice pruebas de bondad y ajuste (shapiro wilks) y métodos gráficos (grafico qq de normalidad)
St2<-c()
for (i in 1:10) {
St2[i]<-shapiro.test(estimadores2[,i])$p.value
}
data.frame(Tamaño_muestra_n=c(5,10,15,20,30,50,60,100,200,500),Valor_P=St2)
## Tamaño_muestra_n Valor_P
## 1 5 5.747995e-29
## 2 10 3.888739e-22
## 3 15 1.774752e-18
## 4 20 2.894111e-15
## 5 30 1.027430e-14
## 6 50 7.744160e-10
## 7 60 8.875991e-08
## 8 100 8.862828e-06
## 9 200 6.088116e-03
## 10 500 1.446940e-02
A partir del tamaño de muestra n=500, se puede apreciar que el Valor P de la prueba de normalidad shapiro wilks es mayor al nivel de significancia 0,05 por lo cual, se puede considerar que los estimadores obtenidos en la simulación tienen una distribución normal cuando en n es mayor o igual a 500.
par(mfrow=c(2, 5))
v<-c(5,10,15,20,30,50,60,100,200,500)
for (l in v) {
for (i in 1:10) {
l=v[i]
qqnorm(estimadores2[,i], main = bquote(~ Tamaño_muestra_n== .(l)))
qqline(estimadores2[,i],col="red")
}
}
En el grafico anterior se puede apreciar que a menor tamaño de muestra
los estimadores no se ajustan a la linea roja, es decir, parecen no
estar distribuidos normalmente, mientras que a mayor tamaño de muestra
los puntos de los estimadores se ajustan a la recta (Son normales).
par(mfrow=c(2, 5))
v<-c(5,10,15,20,30,50,60,100,200,500)
for (l in v) {
for (i in 1:10) {
l=v[i]
hist(estimadores2[,i],main = bquote(~ Tamaño_muestra_n== .(l)), xlab = "Estimadores")
}
}
En el grafico anterior se puede apreciar que a mayor tamaño de muestra los estimadores parecen comportarse como una distribución normal, y se concentran en mayor cantidad alrededor del parámetro (0.10).
# A.
set.seed(0)
Lote3<-c(rep("Enfermas",900),rep("Sanas",100))
# B. Se selecciona una muestra aleatoria de n=100 y se calcula el estimador de la proporción muestral
set.seed(0)
plantas_enfermas3=function(n){
muestra=sample(Lote3,size = n)
return(sum(muestra=="Enfermas")/n)
}
plantas_enfermas3(n = 100)
## [1] 0.9
# C. Repita el escenario anterior 500 veces y analice los resultados en cuanto al comportamiento de los 500 estimadores.
set.seed(0)
plantas_enfermas3=function(n){
muestra=sample(Lote3,size = n)
return(sum(muestra=="Enfermas")/n)
}
Estimadores3=sapply(rep(100,500), plantas_enfermas3)
¿Qué tan simétricos son los datos?
skewness(Estimadores3)
## [1] -0.1934003
kurtosis(Estimadores3)
## [1] 3.792
par(mfrow=c(1,2))
hist(Estimadores3, main="Histograma de estimadores P=0.90",ylab="Frecuencia",col="Green")
boxplot(Estimadores3, main="Boxplot de estimadores")
Dado que el indicador de asimetría es de -0.1934003 y la curtosis 3.792, se puede considerar que la distribución de los datos es lepticúrtica y presenta una asimetría negativa. En los graficos se puede observar que los datos se concentran alrededor del valor del parámetro (0.90).
¿Son sesgados y qué pasa en cuanto a variabilidad?
Sesgo=mean(Estimadores3)-0.90
Sesgo
## [1] 0.00232
sd(Estimadores3)
## [1] 0.02622199
El sesgo del estimador es de 0.00232, y la desviación estandar es baja por lo cual se puede considerar que los datos se concentran alrededor de la media.
# D.
# Literal B.
set.seed(0)
plantas_enfermas3=function(n){
muestra=sample(Lote3,size = n)
return(sum(muestra=="Enfermas")/n)
}
S3<-sapply(c(5,10,15,20,30,50,60,100,200,500), plantas_enfermas3)
data.frame(Tamaño_muestra_n=c(5,10,15,20,30,50,60,100,200,500),Estimador= S3)
## Tamaño_muestra_n Estimador
## 1 5 0.8000000
## 2 10 0.8000000
## 3 15 0.9333333
## 4 20 0.8000000
## 5 30 1.0000000
## 6 50 0.9200000
## 7 60 0.9166667
## 8 100 0.9100000
## 9 200 0.8850000
## 10 500 0.8940000
Se puede observar que a mayor tamaño de muestra (n) el estimador tiende a aproximarse con mayor exactitud al valor del parámetro (0.90).
# Literal C.
set.seed(0)
plantas_enfermas3=function(n){
muestra=sample(Lote3,size = n)
return(sum(muestra=="Enfermas")/n)
}
ntamaños=c(5,10,15,20,30,50,60,100,200,500)
estimadores3<-data.frame(matrix(NA,nrow=500,ncol=length(ntamaños)))
for (i in 1:10) {
estimadores3[,i]=sapply(rep(ntamaños[i],500), plantas_enfermas3)
}
# compare los resultados de los estimadores en cuanto a la normalidad. Investigue y utilice pruebas de bondad y ajuste (shapiro wilks) y métodos gráficos (grafico qq de normalidad)
St3<-c()
for (i in 1:10) {
St3[i]<-shapiro.test(estimadores3[,i])$p.value
}
data.frame(Tamaño_muestra_n=c(5,10,15,20,30,50,60,100,200,500),Valor_P=St3)
## Tamaño_muestra_n Valor_P
## 1 5 8.704355e-30
## 2 10 1.826071e-22
## 3 15 1.855704e-18
## 4 20 2.187717e-15
## 5 30 1.474995e-12
## 6 50 9.417340e-09
## 7 60 6.179770e-08
## 8 100 7.557976e-06
## 9 200 4.311948e-03
## 10 500 8.063048e-03
A partir de los resultados anteriores (Valor P de la prueba de normalidad shapiro wilks) con base en el Valor p se puede concluir que para los diferentes tamaños de muestra planteador los estimadores no siguen una distribución normal.
par(mfrow=c(2, 5))
v<-c(5,10,15,20,30,50,60,100,200,500)
for (l in v) {
for (i in 1:10) {
l=v[i]
qqnorm(estimadores3[,i], main = bquote(~ Tamaño_muestra_n== .(l)))
qqline(estimadores3[,i],col="red")
}
}
par(mfrow=c(2, 5))
v<-c(5,10,15,20,30,50,60,100,200,500)
for (l in v) {
for (i in 1:10) {
l=v[i]
hist(estimadores3[,i],main = bquote(~ Tamaño_muestra_n== .(l)), xlab = "Estimadores")
}
}
En los graficos anteriores se puede apreciar que a menor tamaño de
muestra la distribución registra cola indicando asimetría negativa, a
medida que aumenta el tamaño de muestra los estimadores graficamente se
ajustan con mayor exactitud a una distribución normal, y se concentran
en mayor cantidad alrededor del parámetro (0.90).
Para los diferentes lotes simulados (Proporción plantas enfermas: 0.5, 0.10 y 0.90) se puede observar que a mayor tamaño de muestra los estimadores tienden a su respectivo parámetro poblacional. Los estimadores obtenidos con los lotes simulados de 0,10 y 0,90 proporción de plantas enfermas presentaron distribución asimetrica la cual se puede apreciar en los graficos. Se pudo evidenciar que apesar de que los estimadores de lo lotes simulados con 0,10 y 0,90 proporción de enfermos para los diferentes tamaños de muestra no siguieren una distribución normal de acuerdo a la prueba shapiro wilks, a medida que se incrementaron los tamaños de muestra propuestos, graficamente se converge a la distribución normal (Teorema del límite central).
#### A. Plantas enfermas=10%
set.seed(0)
LoteN1=c(rep("P_Enfermas",100),rep("P_Sanas",900))
LoteN2=c(rep("P_Enfermas",150),rep("P_Sanas",1350))
set.seed(0)
muestra_LoteN1=function(n){
muestraL1=sample(LoteN1,size = n)
return(sum(muestraL1=="P_Enfermas")/n)
}
set.seed(0)
muestra_LoteN2=function(n){
muestraL2=sample(LoteN2,size = n)
return(sum(muestraL2=="P_Enfermas")/n)
}
ML1<-muestra_LoteN1(n = 100)
ML2<-muestra_LoteN2(n = 100)
ML1-ML2
## [1] -0.03
set.seed(0)
muestra_LoteN1=function(n){
muestraL1=sample(LoteN1,size = n)
return(sum(muestraL1=="P_Enfermas"))
}
set.seed(0)
muestra_LoteN2=function(n){
muestraL2=sample(LoteN2,size = n)
return(sum(muestraL2=="P_Enfermas"))
}
EstimadoresL1=sapply(rep(100,500), muestra_LoteN1)
EstimadoresL2=sapply(rep(100,500), muestra_LoteN2)
Dif<-EstimadoresL1-EstimadoresL2
¿Qué tan simétricos son los datos?
par(mfrow=c(1,3))
boxplot(EstimadoresL1, main="Estimadores Lote1",col="lightpink")
boxplot(EstimadoresL2, main="Estimadores Lote2",col="cyan")
boxplot(Dif, main="Diferencia estimadores Lote1-Lote2",col="purple")
En los graficos anteriores se puede apreciar que los estimadores de los Lotes 1 y 2 se concentran alredor de 0.10, mientras que la diferencia de los estimadores se concentra al rededor de 0.
skewness(EstimadoresL1); skewness(EstimadoresL2); skewness(Dif)
## [1] 0.2316654
## [1] 0.1931634
## [1] -0.05401725
Los indicadores de asimetría de los estimadores para los Lotes 1 y 2 sugieren una distribución asimetríca positiva, miestras que la diferencia de los estimadores tiene una distribución levemente asimetríca negativa.
¿Son siempre cero las diferencias? Hipotesis nula: P1-P2=0
prop.test(x=c(mean(EstimadoresL1),mean(EstimadoresL2)),n=c(100,100),conf.level = 0.95)
##
## 2-sample test for equality of proportions with continuity correction
##
## data: c(mean(EstimadoresL1), mean(EstimadoresL2)) out of c(100, 100)
## X-squared = 1.1951e-30, df = 1, p-value = 1
## alternative hypothesis: two.sided
## 95 percent confidence interval:
## -0.08757818 0.08333818
## sample estimates:
## prop 1 prop 2
## 0.09944 0.10156
La proporción de plantas enfermas en el Lote 1 es en promedio del 9,944% y en el lote 2 es en promedio del 10,156%, considerando que el intervalo de confianza para la diferencia de proporciones contiene el valor 0, y que el Valor-P>0,05 se puede considerar que la diferencia entre los estimadores de los lotes puede llegar a ser cero, sin embargo, no se puede afirmar con certeza que siempre esta diferencia sera cero.
### Literal B.
set.seed(0)
muestra_LoteN1=function(n){
muestraL1=sample(LoteN1,size = n)
return(sum(muestraL1=="P_Enfermas")/n)
}
set.seed(0)
muestra_LoteN2=function(n){
muestraL2=sample(LoteN2,size = n)
return(sum(muestraL2=="P_Enfermas")/n)
}
MLS1<-sapply(c(5,10,15,20,30,50,60,100,200,500), muestra_LoteN1)
MLS2<-sapply(c(5,10,15,20,30,50,60,100,200,500), muestra_LoteN2)
data.frame(Tamaño_muestra_n=c(5,10,15,20,30,50,60,100,200,500),Dif_estimadores= MLS1-MLS2)
## Tamaño_muestra_n Dif_estimadores
## 1 5 -0.20000000
## 2 10 0.00000000
## 3 15 0.06666667
## 4 20 -0.15000000
## 5 30 0.10000000
## 6 50 -0.04000000
## 7 60 -0.03333333
## 8 100 0.02000000
## 9 200 0.02500000
## 10 500 -0.01600000
### Literal C.
set.seed(0)
muestra_LoteN1=function(n){
muestraL1=sample(LoteN1,size = n)
return(sum(muestraL1=="P_Enfermas"))
}
n=c(5,10,15,20,30,50,60,100,200,500)
estimadoresLN1<-data.frame(matrix(NA,nrow=500,ncol=length(n)))
for (i in 1:10) {
estimadoresLN1[,i]=sapply(rep(n[i],500), muestra_LoteN1)
}
set.seed(0)
muestra_LoteN2=function(n){
muestraL2=sample(LoteN2,size = n)
return(sum(muestraL2=="P_Enfermas"))
}
n=c(5,10,15,20,30,50,60,100,200,500)
estimadoresLN2<-data.frame(matrix(NA,nrow=500,ncol=length(n)))
for (i in 1:10) {
estimadoresLN2[,i]=sapply(rep(n[i],500), muestra_LoteN2)
}
Dif12<-estimadoresLN1-estimadoresLN2
Compare los resultados de los estimadores (p1-p2) en cuanto a la normalidad
StLote12<-c()
for (i in 1:10) {
StLote12[i]<-shapiro.test(Dif12[,i])$p.value
}
data.frame(Tamaño_muestra_n=c(5,10,15,20,30,50,60,100,200,500),Valor_P=StLote12)
## Tamaño_muestra_n Valor_P
## 1 5 3.666629e-16
## 2 10 3.214408e-12
## 3 15 3.459638e-09
## 4 20 9.870193e-09
## 5 30 1.245186e-06
## 6 50 2.956282e-04
## 7 60 4.294763e-04
## 8 100 1.840590e-02
## 9 200 6.336315e-02
## 10 500 1.218896e-01
A partir del tamaño de muestra n=200, se puede apreciar que el Valor P de la prueba de normalidad shapiro wilks es mayor al nivel de significancia 0,05 por lo cual, se puede considerar que los estimadores obtenidos en la simulación tienen una distribución normal cuando en n es mayor o igual a 200.
A mayor tamaño de muestra los estimadores convergen al parametro poblacional, por lo cual la diferencia entre los estimadores deberia aproximarse a la diferencia real de los parámetros poblacionales.
#### A. Plantas enfermas L3=0.10 y L4=0.15
set.seed(0)
LoteN3=c(rep("P_Enfermas",100),rep("P_Sanas",900))
LoteN4=c(rep("P_Enfermas",225),rep("P_Sanas",1275))
#### B.
set.seed(0)
muestra_LoteN3=function(n){
muestraL3=sample(LoteN3,size = n)
return(sum(muestraL3=="P_Enfermas")/n)
}
set.seed(0)
muestra_LoteN4=function(n){
muestraL4=sample(LoteN4,size = n)
return(sum(muestraL4=="P_Enfermas")/n)
}
ML3<-muestra_LoteN3(n = 100)
ML4<-muestra_LoteN4(n = 100)
ML3-ML4
## [1] -0.04
#### C.
set.seed(0)
muestra_LoteN3=function(n){
muestraL3=sample(LoteN3,size = n)
return(sum(muestraL3=="P_Enfermas"))
}
set.seed(0)
muestra_LoteN4=function(n){
muestraL4=sample(LoteN4,size = n)
return(sum(muestraL4=="P_Enfermas"))
}
EstimadoresL3=sapply(rep(100,500), muestra_LoteN3)
EstimadoresL4=sapply(rep(100,500), muestra_LoteN4)
Dif2<-EstimadoresL3-EstimadoresL4
¿Qué tan simétricos son los datos?
par(mfrow=c(1,3))
boxplot(EstimadoresL3, main="Estimadores Lote3",col="lightpink")
boxplot(EstimadoresL4, main="Estimadores Lote4",col="cyan")
boxplot(Dif2, main="Diferencia estimadores Lote3-Lote4",col="purple")
En los graficos anteriores se puede apreciar que los estimadores del Lote 3 se concentran alredor de 0.10 (parámetro), los estimadores del Lote 4 se concentran alredor de 0.15 (parámetro), mientras que la diferencia de los estimadores se concentra al rededor de -5.
skewness(EstimadoresL3); skewness(EstimadoresL4); skewness(Dif2)
## [1] 0.2316654
## [1] 0.2497016
## [1] -0.09049871
Los indicadores de asimetría de los estimadores para los Lotes 3 y 4 sugieren una distribución asimetríca positiva, miestras que la diferencia de los estimadores tiene una distribución levemente asimetríca negativa.
¿Son siempre cero las diferencias? Hipotesis nula: P3-P4=0
prop.test(x=c(mean(EstimadoresL3),mean(EstimadoresL4)),n=c(100,100),conf.level = 0.95)
##
## 2-sample test for equality of proportions with continuity correction
##
## data: c(mean(EstimadoresL3), mean(EstimadoresL4)) out of c(100, 100)
## X-squared = 0.83768, df = 1, p-value = 0.3601
## alternative hypothesis: two.sided
## 95 percent confidence interval:
## -0.15460096 0.04872096
## sample estimates:
## prop 1 prop 2
## 0.09944 0.15238
La proporción de plantas enfermas en el Lote 3 es en promedio del 9,944% y en el lote 4 es en promedio del 15,238%, considerando que el intervalo de confianza para la diferencia de proporciones contiene el valor 0, y que el Valor-P>0,05 se puede considerar que la diferencia entre los estimadores de los lotes puede llegar a ser cero, sin embargo, no se puede afirmar con certeza que siempre esta diferencia sera cero.
#### D.
### Literal B.
set.seed(0)
muestra_LoteN3=function(n){
muestraL3=sample(LoteN3,size = n)
return(sum(muestraL3=="P_Enfermas")/n)
}
set.seed(0)
muestra_LoteN4=function(n){
muestraL4=sample(LoteN4,size = n)
return(sum(muestraL4=="P_Enfermas")/n)
}
MLS3<-sapply(c(5,10,15,20,30,50,60,100,200,500), muestra_LoteN3)
MLS4<-sapply(c(5,10,15,20,30,50,60,100,200,500), muestra_LoteN4)
data.frame(Tamaño_muestra_n=c(5,10,15,20,30,50,60,100,200,500),Dif_estimadores= MLS3-MLS4)
## Tamaño_muestra_n Dif_estimadores
## 1 5 -0.20000000
## 2 10 0.00000000
## 3 15 0.00000000
## 4 20 -0.20000000
## 5 30 0.03333333
## 6 50 -0.04000000
## 7 60 -0.10000000
## 8 100 -0.04000000
## 9 200 -0.03500000
## 10 500 -0.06800000
#### D.
### Literal C.
set.seed(0)
muestra_LoteN3=function(n){
muestraL3=sample(LoteN3,size = n)
return(sum(muestraL3=="P_Enfermas"))
}
n=c(5,10,15,20,30,50,60,100,200,500)
estimadoresLN3<-data.frame(matrix(NA,nrow=500,ncol=length(n)))
for (i in 1:10) {
estimadoresLN3[,i]=sapply(rep(n[i],500), muestra_LoteN3)
}
set.seed(0)
muestra_LoteN4=function(n){
muestraL4=sample(LoteN4,size = n)
return(sum(muestraL4=="P_Enfermas"))
}
n=c(5,10,15,20,30,50,60,100,200,500)
estimadoresLN4<-data.frame(matrix(NA,nrow=500,ncol=length(n)))
for (i in 1:10) {
estimadoresLN4[,i]=sapply(rep(n[i],500), muestra_LoteN4)
}
Dif34<-estimadoresLN3-estimadoresLN4
Compare los resultados de los estimadores (p1-p2) en cuanto a la normalidad
StLote34<-c()
for (i in 1:10) {
StLote34[i]<-shapiro.test(Dif34[,i])$p.value
}
data.frame(Tamaño_muestra_n=c(5,10,15,20,30,50,60,100,200,500),Valor_P=StLote34)
## Tamaño_muestra_n Valor_P
## 1 5 5.268020e-15
## 2 10 8.582363e-11
## 3 15 3.600233e-08
## 4 20 3.589930e-07
## 5 30 2.505092e-05
## 6 50 6.078612e-04
## 7 60 1.157319e-03
## 8 100 9.170776e-03
## 9 200 6.656074e-02
## 10 500 2.744798e-01
A partir del tamaño de muestra n=200, se puede apreciar que el Valor P de la prueba de normalidad shapiro wilks es mayor al nivel de significancia 0,05 por lo cual, se puede considerar que los estimadores obtenidos en la simulación tienen una distribución normal cuando en n es mayor o igual a 200.
El actual ejercicio respecto al ejercicio con los dos lotes de propocion de plantas enfermas de 0.10 radica en que al evaluar las diferencias de los estimadores se puede eviderciar que para el primer ejecicio a mayor tamaño de muestra la diferencia entre los estimadores converge a 0, mientras que en el ultimo ejercicio con lotes de proporciones de plantas enfermas diferentes a mayor tamaño de muestra esa diferencia converge a -5.
En la década de 1920 el estadístico británico Ronald Fisher introdujo el Valor P como una manera informal para juzgar si la evidencia era significativa; primero se debía establecer una “hipótesis nula” que se quería refutar, se realizaba el experimento y se evaluaba si los resultados eran consistentes o se podrían deber al azar; partiendo de la suposición que la hipótesis fuera cierta, se calculaba la posibilidad de obtener resultados tan extremos como los que se observaban (Valor P), de acuerdo a Fisher cuanto más pequeño era el Valor P mayor era la probabilidad de que la hipótesis nula fuera falsa. Fisher pretendía que el Valor P fuera un método informal, sin embargo, pronto se convirtió en un movimiento para la toma de decisiones basado en evidencia lo más rigurosa y objetiva posible, fue entonces cuando el Valor P de 0,05 se consagro como “Estadísticamente significativo”.
Desde su existencia el Valor P ha sido fuertemente cuestionado por no ser tan fiable ni tan objetivo como suponen la mayoría de científicos; una de las mayores controversias gira en torno a la reproducibilidad de los estudios, en el año 2005 el epidemiólogo John Loannidis sugirió que la mayoría de los hallazgos publicados eran falsos, obligando así a los científicos a repensar como evaluar los resultados con métodos diferentes al Valor P debido a una serie de problemas de replicación de alto perfil, posteriormente la Asociación Estadounidense de Estadística (ASA) emitió recomendaciones explicitas preocupados por el uso incorrecto de este, sugiriendo no sacar conclusiones basadas únicamente en Valor p; los críticos también resaltan que el Valor P puede fomentar un pensamiento confuso, pues se podría llegar a pensar que su valor representa la probabilidad de que un resultado fuera una falsa alarma, cuando realmente solo se pueden concluir los datos entorno a una hipótesis nula específica, cabe mencionar que también se debe tener en cuenta el tamaño real de un efecto y evaluar si este realmente existe. Actualmente el Valor P se ha vuelto un método tan riguroso y concluyente que quizás se podría llegar a manipular y monitorear los datos hasta llegar al resultado deseado, estas prácticas tienen el efecto de convertir los descubrimientos exploratorios en afirmaciones sólidas, las cuales se desvaneces tras la replicación.
Un Valor P de 0,05 no significa que haya un 95% de posibilidad de que una hipótesis dada sea correcta, en cambio, significa que la hipótesis nula es verdadera y todas las demás suposiciones son válidas, y que hay un 5% de posibilidades de obtener un resultado al menos tan extremo como el observado.
A pesar de las diversas críticas por cambiar el concepto y restar importancia al Valor P, es un proceso largo y demorado, pues el marco básico de la estadística no ha cambiado desde que fue introducido por Fisher, Neyman y Pearson. Entre las soluciones pensadas para esta problemática, Cumming consideran importante que los investigadores informen el tamaño de los efectos y los intervalos de confianza, otros estadísticos abogan por reemplazar el Valor P con métodos basados en la regla de Bayes, otros abogan a probar diferentes metodología para probar los datos, y Simonsohn argumenta que es necesario que los investigadores especifiquen las inclusiones y exclusiones de las muestras, sus tamaños y cualquier modificación que haya sido relevante para llegar a los resultados deseados.
El uso del Valor P como criterio de decisión en inferencia estadística, debe contemplar las diferentes problemáticas expuestas anteriormente, es fundamental evaluar la selección de las muestras y ser explícitos en el marco muestral de los datos, se deben tener en cuenta el contexto de la información y las diversas metodologías a parte del Valor P para evaluar la significancia de los resultados, y no se deben hacer conclusiones a priori de la población a partir de los resultados del análisis exploratorio muestral.