El Teorema del Límite Central es uno de los más importantes en la inferencia estadística y habla sobre la convergencia de los estimadores como la proporción muestral a la distribución normal. Algunos autores afirman que esta aproximación es bastante buena a partir del umbral n>30.
1.a Realice una simulación en la cual genere una población de N=1000 (Lote) y además que el porcentaje de individuos (plantas) enfermas sea del 50%.
library(kableExtra)
Lote=c(rep("Enferma",500),rep("sana",(1000-500)))
A=table(Lote)
A %>%
kbl(booktabs = T,) %>%
kable_classic_2(full_width = F)
| Lote | Freq |
|---|---|
| Enferma | 500 |
| sana | 500 |
1.b Genere una función que permita obtener una muestra aleatoria de la población y calcule el estimador de la proporción muestral para un tamaño de muestra dado n.
prop_muestr=function(n){
Muestra_Aleatoria=sample(Lote,size = n)
Prop_gorro=sum(Muestra_Aleatoria=="Enferma")/n
return(Prop_gorro)
}
Xprop=prop_muestr( n = 100)
1.c Repita el escenario anterior (b) 500 veces y analice los resultados en cuanto al comportamiento de los 500 estimadores. ¿Qué tan simétricos son los datos?, ¿Son sesgados y qué pasa en cuanto a variabilidad?
require(ggplot2)
require(psych)
require(ggpubr)
require(moments)
library(DT)
generador= function(n_muestra,n_rep){
Estimadores=sapply(rep(n_muestra,n_rep), prop_muestr)
return(Estimadores)
}
Estimadores=generador(n_muestra=100, n_rep=500)
A=matrix(c(round(mean(Estimadores),3),round(median(Estimadores),3), round(sd(Estimadores),3),round(skewness(Estimadores),3),round(kurtosis(Estimadores),3)), ncol=5)
colnames(A)<- c("Promedio", "Mediana","Std","Skewness", "Kurtosis")
A %>%
kbl(booktabs = T,) %>%
kable_classic_2(full_width = F)
| Promedio | Mediana | Std | Skewness | Kurtosis |
|---|---|---|---|---|
| 0.499 | 0.5 | 0.044 | -0.007 | 2.891 |
Puntoc_=data.frame(Estimadores)
g1=ggplot(Puntoc_,aes(x=Estimadores))+geom_histogram(bins=30,color = 1, fill = "gray")+theme_bw()
g2=ggplot(Puntoc_,aes(y=Estimadores))+geom_boxplot(width=0.5,color = 1, fill = "gray")+theme_bw()
ggarrange(g1,g2, labels = c("Histograma","Boxplot"),ncol = 2, nrow = 1)
Respuesta: Los estimadores calculados en las 500 muestras de tamaño 100, cuentan con una media y mediana cercanas al valor poblacional (50% de plantas enfermas), mostrando características de un estimador insesgado, con una desviación estándar de (0.046). Adicionalmente se evidencia una distribución ligeramente mesocúrtica (2.85) y aunque el coeficiente de skewness está cercano a cero mostrando una simetría, es levemente negativo lo cual nos permite afirmar que existe una mayor concentración de los datos en la cola derecha de la distribución. Conclusiones que se pueden observar el histograma y el grafico de bigotes, donde si bien se ven unos datos atípicos en la parte izquierda de la distribución, y una leve concentración superior a la derecha, la distribución está cerca a la normal.
1.d Realice los ejercicios completos b y c para tamaños de muestra n=5, 10, 15, 20, 30, 50, 60, 100, 200, 500. Y compare los resultados de los estimadores en cuanto a la normalidad. Investigue y utilice pruebas de bondad y ajuste (shapiro wilks) y métodos gráficos (grafico qq de normalidad).
require(MASS)
require(goftest)
library("car")
require(ggplot2)
require(reshape2)
muestras=c(5,10,15,20,30,50,60,100,200,500)
nombre_muestras=c("n5","n10","n15","n20","n30","n50","n60","n100","n200","n500")
Poblacion=function(sizepop, por_enfermas){
Lote=c(rep("Enferma",sizepop*por_enfermas),rep("sana",(sizepop-(sizepop*por_enfermas))))
}
estimadores_finales=function(n_repeticiones, n_muestras){
res_estimadores=matrix(nrow=n_repeticiones,ncol=length(n_muestras))
Results= list()
Ajuste=matrix(nrow=2,ncol=length(n_muestras))
Adn=matrix(nrow=1,ncol=length(n_muestras))
Shap=matrix(nrow=1,ncol=length(n_muestras))
for (i in 1:length(n_muestras)){
res_estimadores[,i]=generador(n_muestras[i],n_repeticiones)
Ajuste[,i]=fitdistr(res_estimadores[,i], "normal")$estimate
Adn[,i]<- ad.test(res_estimadores[,i], "pnorm", mean =Ajuste[1,i], sd= Ajuste[2,i])$p.value
Shap[,i]<- shapiro.test(res_estimadores[,i])$p.value
Results$res_estimadores=res_estimadores
Results$Adn=Adn
Results$Shap=Shap
}
return(Results)
}
Stat=function(Resultados){
R=matrix(c(round(colMeans(Resultados$res_estimadores),3),round(apply(Resultados$res_estimadores,2,median),3), round(apply(Resultados$res_estimadores,2,sd),3),round(apply(Resultados$res_estimadores,2,skewness),3),round(apply(Resultados$res_estimadores,2,kurtosis),3),round(Resultados$Adn,3), round(Resultados$Shap,3)), ncol=7)
colnames(R)<- c("Promedio", "Mediana","Std","Skewness", "Kurtosis", "AD p-value","Shapiro p-value")
rownames(R)<- nombre_muestras
R %>%
kbl(booktabs = T,) %>%
kable_classic_2(full_width = F)
}
Grap=function(Resultados, por_enfermas){
colnames(Resultados$res_estimadores)<-nombre_muestras
df <- data.frame(time = 1:500,Resultados$res_estimadores)
df <- melt(df , id.vars = 'time', variable.name = 'series')
g1=ggplot(df, aes(x=value, color=series, fill=value)) +geom_density(alpha=.4)+theme(legend.key.size = unit(0.4, 'cm'),legend.text = element_text(size=5.5))
g2<-ggplot(df, aes(sample = value)) + stat_qq() + stat_qq_line()+ facet_grid( .~ series)
g0 <- ggplot(df, aes(x=series, y=value)) +geom_boxplot() +geom_hline(aes(yintercept = por_enfermas))
G=ggarrange(g0, g1, g2, ncol = 1, nrow = 3)
return(G)
}
Lote=Poblacion(sizepop=1000,por_enfermas=0.5)
Resultados1=estimadores_finales(n_repeticiones = 500, n_muestras=muestras)
Stat(Resultados=Resultados1)
| Promedio | Mediana | Std | Skewness | Kurtosis | AD p-value | Shapiro p-value | |
|---|---|---|---|---|---|---|---|
| n5 | 0.496 | 0.600 | 0.212 | 0.002 | 2.582 | 0.000 | 0.000 |
| n10 | 0.508 | 0.500 | 0.163 | -0.027 | 2.802 | 0.000 | 0.000 |
| n15 | 0.499 | 0.467 | 0.127 | 0.100 | 2.536 | 0.001 | 0.000 |
| n20 | 0.498 | 0.500 | 0.105 | -0.099 | 2.477 | 0.002 | 0.000 |
| n30 | 0.503 | 0.500 | 0.086 | -0.005 | 3.153 | 0.023 | 0.000 |
| n50 | 0.499 | 0.500 | 0.072 | -0.157 | 3.810 | 0.068 | 0.000 |
| n60 | 0.501 | 0.500 | 0.065 | 0.051 | 3.150 | 0.126 | 0.002 |
| n100 | 0.502 | 0.500 | 0.048 | 0.076 | 2.874 | 0.312 | 0.028 |
| n200 | 0.501 | 0.500 | 0.032 | -0.007 | 2.748 | 0.410 | 0.089 |
| n500 | 0.500 | 0.500 | 0.017 | -0.135 | 3.340 | 0.568 | 0.140 |
Grap(Resultados=Resultados1,por_enfermas=0.5)
Respuesta: Al realizar 500 muestras aleatorias para diferentes tamaños de muestra, podemos ver que el estimador es consistente e insesgado, es decir su desviación estándar se aproxima a cero a medida que aumentamos el tamaño de la muestra, y la media y mediana es cada vez más similar al valor de proporción poblacional; Con un tamaño de muestra de 500, vemos que ambos valores son iguales al 50% (valor poblacional). Cuando observamos los coeficientes de Skewness y Kurtosis, podemos ver que en mayores muestras la distribución es más mesocúrtica que en muestras pequeñas, y aunque no existe un patrón tan claro en cuanto a la simetría de la distribución, se puede observar que en muestras grandes (tamaño 500) este coeficiente esta cercano a cero. Con estos dos valores podemos ver indicios de una distribución normal en muestras grandes, hipótesis que comprobaremos con las pruebas de Shapiro Wilks y Anderson-Darling. Ambas pruebas estadísticas rechazan la hipótesis nula de normalidad con el 95% de confianza para las muestras de tamaño 5 al 30, lo que indica que en estos tamaños de muestra las distribuciones no son normales. Existe cierta divergencia entre las pruebas para los tamaños de muestra 40-100, donde Anderson-Darling estaría encontrando evidencia a favor de una distribución normal, y Shapiro Wilks no, sin embargo, Anderson-Darling muestra que a medida que el tamaño de la muestra incrementa, también lo hace el nivel de confianza de aceptación de la hipótesis nula. Para los dos últimos tamaños de muestra 100-500 ambas pruebas estarían encontrando evidencia a favor de la hipótesis nula lo que indica que las distribuciones se ajustan a una distribución normales. Esto se puede evidenciar en las gráficas, a medida que incrementa el tamaño de la muestra se puede ver que la caja de bigote esta más concentrada alrededor del valor poblacion, con una menor distribución, vemos que las densidades también están más concentradas alrededor del valor de proporción poblacional, y presentan un comportamiento normal, y finalmente cuando observamos en qqplot, se ve que a medida que incrementa el tamaño dela muestra los valores de la distribución se acercan más a la distribución teórica normal.
e.Repita toda la simulación (puntos a – d) pero ahora con lotes con 10% y 90% de plantas enfermas. Concluya todo el ejercicio.
Lote=Poblacion(sizepop=1000,por_enfermas=0.1)
Resultados2=estimadores_finales(n_repeticiones = 500, n_muestras=muestras)
Stat(Resultados=Resultados2)
| Promedio | Mediana | Std | Skewness | Kurtosis | AD p-value | Shapiro p-value | |
|---|---|---|---|---|---|---|---|
| n5 | 0.098 | 0.000 | 0.137 | 1.515 | 5.923 | 0.000 | 0.000 |
| n10 | 0.101 | 0.100 | 0.092 | 0.777 | 3.202 | 0.000 | 0.000 |
| n15 | 0.105 | 0.067 | 0.077 | 0.591 | 3.065 | 0.000 | 0.000 |
| n20 | 0.096 | 0.100 | 0.066 | 0.622 | 3.073 | 0.000 | 0.000 |
| n30 | 0.102 | 0.100 | 0.055 | 0.572 | 3.364 | 0.000 | 0.000 |
| n50 | 0.099 | 0.100 | 0.041 | 0.322 | 2.822 | 0.001 | 0.000 |
| n60 | 0.101 | 0.100 | 0.038 | 0.369 | 3.173 | 0.002 | 0.000 |
| n100 | 0.101 | 0.100 | 0.028 | 0.309 | 2.966 | 0.012 | 0.000 |
| n200 | 0.099 | 0.100 | 0.019 | 0.064 | 2.841 | 0.167 | 0.013 |
| n500 | 0.100 | 0.100 | 0.010 | 0.035 | 2.971 | 0.320 | 0.077 |
Grap(Resultados=Resultados2,por_enfermas=0.1)
Lote=Poblacion(sizepop=1000,por_enfermas=0.9)
Resultados3=estimadores_finales(n_repeticiones = 500, n_muestras=muestras)
Stat(Resultados=Resultados3)
| Promedio | Mediana | Std | Skewness | Kurtosis | AD p-value | Shapiro p-value | |
|---|---|---|---|---|---|---|---|
| n5 | 0.909 | 1.000 | 0.132 | -1.261 | 3.881 | 0.000 | 0.000 |
| n10 | 0.901 | 0.900 | 0.093 | -0.692 | 2.876 | 0.000 | 0.000 |
| n15 | 0.900 | 0.933 | 0.079 | -0.729 | 3.628 | 0.000 | 0.000 |
| n20 | 0.900 | 0.900 | 0.070 | -0.550 | 3.152 | 0.000 | 0.000 |
| n30 | 0.899 | 0.900 | 0.053 | -0.549 | 3.138 | 0.000 | 0.000 |
| n50 | 0.899 | 0.900 | 0.043 | -0.549 | 3.360 | 0.000 | 0.000 |
| n60 | 0.901 | 0.900 | 0.037 | -0.218 | 2.768 | 0.004 | 0.000 |
| n100 | 0.897 | 0.900 | 0.029 | -0.529 | 3.736 | 0.008 | 0.000 |
| n200 | 0.900 | 0.900 | 0.018 | -0.167 | 2.823 | 0.066 | 0.001 |
| n500 | 0.900 | 0.900 | 0.009 | 0.220 | 3.614 | 0.199 | 0.002 |
Grap(Resultados=Resultados3,por_enfermas=0.9)
Respuesta: Con este ejercicio se puede concluir varias cosas, lo primero es que el estimador de proporción cumple con las propiedades de ser insesgado y consistente, es decir que cuando el tamaño de la muestral tiende a infinito el estimador muestral tiende al poblacional con una desviación estándar que es cercana a cero. Otra de las conclusiones de este ejercicio es que se valida el teorema del límite central el cual explica que cuando la muestra es significativa, existirá una convergencia de la distribución muestral a una distribución normal.
En todas las simulaciones se puede ver que a medida que incrementa el tamaño de la muestra el nivel de confianza para rechazar la hipótesis de normalidad disminuye, y aunque en el ejercicio donde la proporción de plantas enfermas es del 0.9 la prueba de Shapiro Wilks no encuentra evidencia a favor de la normalidad, si lo hace la prueba de Anderson Draling y se mantiene la tendencia ya mencionada, por lo tanto si uno incrementa más el tamaño de la muestra puede encontrar que ambos test estadísticos encontrarían evidencia a favor de la hipótesis nula de normalidad. Sin embargo, es importante mencionar que cuando la proporción de plantas enfermas y sanas es igual, las pruebas estadísticas necesitan muestras menos grandes para llegaran a aceptar la normalidad que cuando las proporciones son diferentes.
Lote1=Poblacion(sizepop=1000,por_enfermas=0.1)
Lote2=Poblacion(sizepop=1500,por_enfermas=0.1)
Genere una función que permita obtener una muestra aleatoria de los lotes y calcule el estimador de la proporción muestral para cada lote (p1 y p2) para un tamaño de muestra dado n1=n2. Calcule la diferencia entre los estimadores p1-p2.
generador_m=function(n_muestra){
Res= list()
L1=sample(Lote1,size=n_muestra)
L2=sample(Lote2,size=n_muestra)
muestra1=(sum(L1=="Enferma")/n_muestra)
muestra2=(sum(L2=="Enferma")/n_muestra)
dif_muestras=(muestra1-muestra2)
Res=data.frame(muestra1,muestra2,dif_muestras)
return(Res)
}
n_muestra=100
Diferencias= generador_m(n_muestra)
Test=prop.test(x = c(Diferencias$muestra1*n_muestra,Diferencias$muestra2*n_muestra),n = c(n_muestra,n_muestra),conf.level = 0.95)$p.value
G=matrix(c(Diferencias$dif_muestras,Test), ncol=2)
colnames(G)<- c("Diferencias","Prop.test p-value")
G %>%
kbl(booktabs = T,) %>%
kable_classic_2(full_width = F)
| Diferencias | Prop.test p-value |
|---|---|
| -0.02 | 0.8048439 |
Respuesta: Si bien se tiene una diferencia de entre ambos estimadores, esta no es estadísticamente significativa a un 95% de confianza.
generador_mm= function(n_muestra,n_rep){
Estimadores<-(data.frame(t(sapply(rep(n_muestra,n_rep),generador_m))))
return(Estimadores)
}
Estimadores2=generador_mm(n_muestra=100, n_rep=500)
g1=ggplot(Estimadores2,aes(x=as.numeric(dif_muestras)))+geom_histogram(bins=30,color = 1, fill = "gray")+theme_bw()
g2=ggplot(Estimadores2,aes(y=as.numeric(dif_muestras)))+geom_boxplot(width=0.5,color = 1, fill = "gray")+theme_bw()
ggarrange(g1,g2, labels = c("Histograma","Boxplot"),ncol = 2, nrow = 1)
H=matrix(c(prop.test(x = c(mean(as.numeric(Estimadores2$muestra1))*n_muestra,mean(as.numeric(Estimadores2$muestra2))*n_muestra), n= c(n_muestra,n_muestra),conf.level = 0.95)$p.value,skewness(as.numeric(Estimadores2$dif_muestras)), kurtosis(as.numeric(Estimadores2$dif_muestras)),mean(as.numeric(Estimadores2$dif_muestras)),median(as.numeric(Estimadores2$dif_muestras)),sd(as.numeric(Estimadores2$dif_muestras))), ncol=6)
colnames(H)<- c("Prop.test p-value","Skewness","Kurtosis","Media","Mediana","Desviacion estandar")
H %>%
kbl(booktabs = T,) %>%
kable_classic_2(full_width = F)
| Prop.test p-value | Skewness | Kurtosis | Media | Mediana | Desviacion estandar |
|---|---|---|---|---|---|
| 1 | 0.2124841 | 2.874633 | 0.0027 | 0 | 0.040281 |
Respuesta: Los estimadores de las diferencias (P1-P2) calculados en las 500 muestras con tamaño 100, no siempre son 0, pero su media y mediana están cercanos a este valor, y poseen una baja variabilidad (SD=0.043), como se puede observar en tanto en el histograma como en la grafica de bigotes. En términos de la simetría del estimador de diferencias podemos ver un coeficiente de Skewness ligeramente negativo, mostrando que la distribución en términos generales es muestra comportamientos simétricos, pero posee un poco mas de masa en la cola derecha. En términos de la curtosis, podemos decir que la distribución posee algo más de masa en las colas (platicúrtica) que una distribución teórica normal, sin embargo, esta característica es leve. Se puede concluir que el estimador cumple con las propiedades de ser insesgado y de eficiencia, lo que indica que es un estimador correcto para estimar el parámetro de la población.
muestras=c(5,10,15,20,30,50,60,100,200,500)
nombre_muestras=c("n5","n10","n15","n20","n30","n50","n60","n100","n200","n500")
estimadores_finales2=function(n_repeticiones, n_muestras){
res_estimadores=matrix(nrow=n_repeticiones,ncol=length(n_muestras))
Results= list()
Prop=matrix(nrow=1,ncol=length(n_muestras))
Shap=matrix(nrow=1,ncol=length(n_muestras))
Difs=matrix(nrow=n_repeticiones,ncol=length(n_muestras))
for (i in 1:length(n_muestras)){
res=generador_mm(n_muestras[i],n_repeticiones)
Difs[,i]=as.numeric(res[,3])
Prop[,i]=prop.test(x = c(mean(as.numeric(res[,1]))*n_muestra,mean(as.numeric(as.numeric(res[,2])))*n_muestra), n= c(n_muestra,n_muestra),conf.level = 0.95)$p.value
Shap[,i]<- shapiro.test(as.numeric(res[,3]))$p.value
Results$Difs=Difs
Results$Prop=Prop
Results$Shap=Shap
}
return(Results)
}
Grap2=function(Resultados, por_enfermas){
colnames(Resultados$Difs)<-nombre_muestras
df <- data.frame(time = 1:500,Resultados$Difs)
df <- melt(df , id.vars = 'time', variable.name = 'series')
g1=ggplot(df, aes(x=value, color=series, fill=value)) +geom_density(alpha=.4)+theme(legend.key.size = unit(0.4, 'cm'),legend.text = element_text(size=6))
g2<-ggplot(df, aes(sample = value)) + stat_qq() + stat_qq_line()+ facet_grid( .~ series)
gg=ggarrange( g1, g2, ncol = 1, nrow = 2)
return(gg)
}
Stat2=function(Resultados){
W=matrix(c(round(colMeans(Resultados$Difs),3),round(apply(Resultados$Difs,2,median),3), round(apply(Resultados$Difs,2,sd),3),round(apply(Resultados$Difs,2,skewness),3),round(apply(Resultados$Difs,2,kurtosis),3), round(Resultados$Prop,3), round(Resultados$Shap,3) ), ncol=7)
colnames(W)<- c("Promedio","Mediana","Desviacion estandar","Skewness","Kurtosis","Prop.test p-value","Shapiro p-value")
rownames(W)<-c(nombre_muestras)
W %>%
kbl(booktabs = T,) %>%
kable_classic_2(full_width = F)}
Resultados4=estimadores_finales2(n_repeticiones = 500, n_muestras=muestras)
Grap2(Resultados=Resultados4,por_enfermas=0.1)
Stat2(Resultados=Resultados4)
| Promedio | Mediana | Desviacion estandar | Skewness | Kurtosis | Prop.test p-value | Shapiro p-value | |
|---|---|---|---|---|---|---|---|
| n5 | 0.011 | 0 | 0.193 | 0.079 | 3.200 | 0.985 | 0.000 |
| n10 | 0.001 | 0 | 0.139 | -0.054 | 3.060 | 1.000 | 0.000 |
| n15 | -0.002 | 0 | 0.113 | -0.026 | 3.329 | 1.000 | 0.000 |
| n20 | 0.004 | 0 | 0.094 | 0.101 | 3.212 | 1.000 | 0.000 |
| n30 | 0.008 | 0 | 0.079 | 0.176 | 3.021 | 1.000 | 0.000 |
| n50 | 0.004 | 0 | 0.058 | -0.054 | 2.870 | 1.000 | 0.000 |
| n60 | 0.002 | 0 | 0.056 | -0.013 | 3.116 | 1.000 | 0.003 |
| n100 | 0.000 | 0 | 0.038 | -0.125 | 3.062 | 1.000 | 0.004 |
| n200 | 0.001 | 0 | 0.027 | 0.039 | 2.711 | 1.000 | 0.052 |
| n500 | 0.000 | 0 | 0.014 | 0.112 | 2.967 | 1.000 | 0.010 |
Respuesta:Al realizar 500 muestras aleatorias para diferentes tamaños de muestra, podemos ver que el estimador es consistente e insesgado, es decir su desviación estándar se aproxima a cero a medida que aumentamos el tamaño de la muestra, y la media y mediana es cada vez más similar al valor de proporción poblacional; Con un tamaño de muestra de 500, vemos que ambos valores son iguales al 0 (valor poblacional), ya que las dos poblaciones están tiene la misma proporción de plantas enfermas.
Cuando observamos los coeficientes de Skewness y Kurtosis, podemos ver que en el último tamaño de muestra (500) la distribución es más mesocúrtica y simétrica. En términos generales desde un tamaño de muestra de 20, la distribución se vuelve más simétrica sin embargo no se ve un patrón claro en términos de la curtosis, y por lo tanto para poder corroborar las hipótesis de normalidad usaremos la prueba de Shapiro Wilks. Bajo esta prueba se rechaza la hipótesis nula entre las muestras de tamaño 5 y 100 encontrando evidencia a favor de una no normalidad de la distribución con 95% de confianza, y para los tamaños de muestra de 200 y 500 no se rechaza esta hipótesis nula lo que indica que las distribuciones se ajustan a una distribución normales. Esto se puede evidenciar en los diferentes histogramas y gráficos de qqplot.
Y al igual que en el punto anterior aunque las diferencias en promedio no son siempre cero, estas diferencias no son estadísticamente significativas en ninguno de los tamaño de muestras
Lote1=Poblacion(sizepop=1000,por_enfermas=0.1)
Lote2=Poblacion(sizepop=1500,por_enfermas=0.15)
Resultados5=estimadores_finales2(n_repeticiones = 500, n_muestras=muestras)
Grap2(Resultados=Resultados5,por_enfermas=0.1)
Stat2(Resultados=Resultados5)
| Promedio | Mediana | Desviacion estandar | Skewness | Kurtosis | Prop.test p-value | Shapiro p-value | |
|---|---|---|---|---|---|---|---|
| n5 | -0.058 | 0.000 | 0.217 | -0.212 | 3.392 | 0.305 | 0.000 |
| n10 | -0.048 | 0.000 | 0.142 | -0.128 | 3.338 | 0.401 | 0.000 |
| n15 | -0.043 | -0.067 | 0.119 | -0.088 | 3.433 | 0.478 | 0.000 |
| n20 | -0.054 | -0.050 | 0.101 | -0.087 | 2.912 | 0.342 | 0.000 |
| n30 | -0.046 | -0.033 | 0.086 | -0.201 | 2.847 | 0.453 | 0.000 |
| n50 | -0.048 | -0.040 | 0.065 | -0.011 | 3.271 | 0.413 | 0.002 |
| n60 | -0.046 | -0.033 | 0.059 | -0.375 | 3.958 | 0.449 | 0.000 |
| n100 | -0.047 | -0.050 | 0.044 | 0.126 | 2.750 | 0.433 | 0.005 |
| n200 | -0.050 | -0.050 | 0.030 | 0.058 | 2.480 | 0.392 | 0.004 |
| n500 | -0.050 | -0.051 | 0.017 | -0.045 | 2.967 | 0.386 | 0.494 |
Respuesta: Con este ejercicio se puede concluir varias cosas, lo primero es que el estimador de proporción cumple con las propiedades de ser insesgado y consistente, es decir que cuando el tamaño de la muestral tiende a infinito el estimador muestral tiende al poblacional (0.05) con una desviación estándar que es cercana a cero. Otra de las conclusiones de este ejercicio es que se valida el teorema del límite central el cual explica que cuando la muestra es significativa, existirá una convergencia de la distribución muestral a una distribución normal.
Tanto en el ejercicio del punto d como en el del punto e se pueden ver estas características de los estimadores y la normalidad cuando se incrementa el tamaño de la muestra. Lo que sí está cambiando entre los ejercicios, es precisamente las él estimadores de diferencias, si bien a medida que s incrementa la muestra se acercan a su valor poblacion este valor poblacion es diferente, y por lo tanto en el ejercicio del punto e tendríamos valores diferentes de cero.
Por lo tanto, la pregunta natural es, ¿serán estas diferencias estadísticamente significativas? Aplicando la prueba de prop.test, se puede evidenciar que, si bien el valor p es menor en el ejercicio d que en el e, en este último todavía no existe evidencia suficiente para rechazar la hipótesis de igualdad estadística entre las muestras, sin embargo, dado el comportamiento decreciente de valor p a medida que el tamaño de la muestra incrementa es posible esperar que en una muestra mayor se puede encontrar evidencia a favor para rechazar la hipótesis nula de igualdad estadística
“The P value was never meant to be used the way it’s used today,” Goodman. En 1920, nace el concepto del valor p, pero no como lo conocemos ahora; Inicialmente Ronald Fisher quería saber cuál era la probabilidad de que los resultados obtenidos en una investigación fueran solo por causas del alzar, para esto se establece una hipótesis nula, la cual querían refutar, como por ejemplo, que no existe la correlación o diferencia significativa entre diferentes grupos, posteriormente calculaban la posibilidad de que esta hipótesis nula(que quería refutar), esta probabilidad se llamo valor P, el cual a medida que se hace más pequeño mayor será la probabilidad de que la hipótesis nula sea falsa . Fisher pretendía que es que estos calculo fueran parte de un proceso no numérico, que combinara datos y conocimientos previos, para poder llegar a conclusiones científicas claras.
En este periodo empezó un movimiento alternativo, que quería hacer que la toma de decisiones basadas en datos fuera un proceso rigurosa y objetivo, inicialmente el valor p no fue considerado parte de este tipo de técnicas hasta que investigadores (no estadísticos) y por lo tanto sin el conocimiento específico, crearon un sistema hibrido donde combinada el valor p, con el nuevo marco de alta rigurosidad estadística, y fue en este momento donde el valor p de 0.05 fue aceptado como estadísticamente significativo.
Uno de los grandes problemas que se tiene con respecto al uso de valor p, es la idea errada de sus alcances, comúnmente un valor p de 0.01 se interpreta como que solo existe en 1% de probabilidades de que el resultado sea un falsa alarma, sin embargo el valor p no puede decir eso, puede resumir la información asumiendo una hipótesis nula, pero no hacer inducción hacia atrás y realizar afirmaciones sobre la realidad subyacente, por que estaría trabajando ignorando la probabilidad de que el efecto real este contenido en la los resultados a analizar, y por lo tanto entre mas peculiar es la hipótesis nula, la posibilidad de tener un falso positivo es mayor.}
Considerando esto existe un cambio en perspectiva, por ejemplo, un valor p de 0.05 (el cual se considera estadísticamente significativo) realmente nos muestra es un probabilidad de falsa alarma de 20% y la probabilidad de replicar un resultado con valor p de 0.01, no es del 99% sino algo mas cercano al 73% o 50% .
A pesar de todas las criticas realizada al valor p, la reforma ha sido lenta y se va visto como la popularidad de los valores p, va en aumento. Una reporta debe cambia la forma en la que el análisis de datos se realiza y como se reportan e interpretan los resultados obtenidos, y aunque es difícil ya muchos autores se están dando cuanta que muchos de los descubrimientos confirmados con los valore p no son ciertos bajo otras condiciones. Muchos estadísticos han ideado estrategias para ayudar a poder solventar las criticas realizadas al valor p, como mostrar intervalos de confianza, de esta manera se tiene en cuanta la magnitud y la importancia relativa del efecto, usar metodologías bayesianas, bajo la cual se ve la probabilidad como la plausibilidad de un resultado y no como la frecuencia potencial de este. Otra corriente de estadísticos hablan de que los estudios deberían reportar como se determina la muestra, las exclusiones que hacen y las manipulaciones, de manera que no los valores p sean ’P-certified, not P-hacked o que existan procesos de replicación de los estudios.
Considero que el uso e interpretación que ha tenido el valor p en la comunidad académica ha sido bastante perjudicial, el valor p puede ser una herramienta para evaluar que tan probable es una hipótesis dada, sin embargo, no puede ser el único mecanismo para probar o rechazar un resultado, existen otras métodos y mecanismos de los cuales se debería hacer uso, para que los descubrimientos se que hagan sean certeros y replicables. El incremento de falsas alarmas que existen en el mundo académico ha sido un despertar importante para la comunidad la cual esta migrando a otras opciones de verificación o al uso correcto de los estadísticos ya creados (valor p). sin embargo, este movimiento no tiene la rapidez necesaria.