En este punto se pretende observar la convergencia a la distribución normal de la proporción muestral mediante el entendimiento del Teorema del Límite Central. Hay alguno autores que afirman que esta aproximación es bastante buena a partir de un tamaño de muestra mayor a 30 individuos.
Para esto se realizó la simulación de una población de 1000 plantas que toman valores de 1 y 0 donde el 1 hace referencia a si la planta esta enferma. Se consideraron diferentes tamaños de muestras desde n = 5 hasta un n= 500. La simulación consistia en sacar una muestra del tamaño especificado, calcular la proporción muestral y realizar este proceso un total de 1000 veces. Se consideraron 3 proporcines poblacionales diferentes entre las cuales estaba el 10%, 50% y 90%.
####### Punto 1 ##############
## Parametros
P = c(0.1, 0.5, 0.9) # Porcentaje de plantas enfermas
N = 1000 # Tamaño del lote
n = c(5,10,15,20,30,50,60,100,200,500) # Vector de tamaño de la muestra
r = 1000 # Numero de repeticiones
# Generacion de lote
una_muestra <- function(P,N,n, r){
lote = c(rep(1, N*P),rep(0, N*(1-P)))
p = matrix(0,r,length(n))
for (j in 1:length(n)){
for (i in 1:r) {
muestra = sample(lote, n[j], replace = F)
p[i,j] = sum(muestra)/length(muestra)
}
}
p <- data.frame(p)
colnames(p) <- paste0("Tamaño", n)
## Prueba de normalidad
p_valor_sw <- array()
for (i in 1:length(n)){
sw_test <- shapiro.test(p[,i])
p_valor_sw[i] <- sw_test$p.value
}
p_valor_sw <- data.frame(t(p_valor_sw))
colnames(p_valor_sw) <- n
### Grafico de densidad
graficos <- list()
for (i in 1:length(n)){
colnames(p) <- paste0("Tamaño", n)
colnames(p)[i] <- "Variable"
gr <- ggplot(p,aes(x = Variable*100))
gr <- gr + geom_density(color = "white",
fill = "blue",
alpha = 0.25)
gr <- gr + labs(title = paste("Grafico de densidad para % \n","de plantas enfermas \n","n =",n[i]),
x = '% de plantas enfermas',
y = 'Densidad')
gr <- gr + theme_classic()
gr <- gr + theme(axis.text.x = element_text(size = 5),
axis.text.y = element_text(size = 5),
plot.title = element_text(size = 9,
face = "bold",
hjust = 0.5),
plot.subtitle = element_text(size = 8,
hjust = 0.5,
color = 'blue'))
graficos[[paste0("Tamaño_",n[i])]] <- gr
}
# Graficos para cada tamaño de muestra
gr1 <- graficos$Tamaño_5
gr2 <- graficos$Tamaño_10
gr3 <- graficos$Tamaño_15
gr4 <- graficos$Tamaño_20
gr5 <- graficos$Tamaño_30
gr6 <- graficos$Tamaño_50
gr7 <- graficos$Tamaño_60
gr8 <- graficos$Tamaño_100
gr9 <- graficos$Tamaño_200
gr10 <- graficos$Tamaño_500
gr_densidad_plot <- ggarrange(gr1,gr2,gr3, gr4, gr5,
gr6, gr7, gr8, gr9, gr10,
ncol = 5, nrow = 2)
### Grafico qq-plot
graficos <- list()
for (i in 1:length(n)){
colnames(p) <- paste0("Tamaño", n)
colnames(p)[i] <- "Variable"
gr <- ggplot(p,aes(sample = Variable))
gr <- gr + stat_qq()
gr <- gr + stat_qq_line()
gr <- gr + labs(title = paste("QQplot para el n =",n[i]),
subtitle = paste0("P-Valor Test Shapiro Wils \n",
p_valor_sw[i]),
x = 'Cuantiles teoricos',
y = 'Cuantiles muestrales')
gr <- gr + scale_x_continuous(limits = c(-4,4))
gr <- gr + theme_classic()
gr <- gr + theme(axis.text.x = element_text(size = 5),
axis.text.y = element_text(size = 5),
plot.title = element_text(size = 9,
face = "bold",
hjust = 0.5),
plot.subtitle = element_text(size = 8,
hjust = 0.5,
color = 'blue'))
graficos[[paste0("Tamaño_",n[i])]] <- gr
}
# Graficos para cada tamaño de muestra
gr1 <- graficos$Tamaño_5
gr2 <- graficos$Tamaño_10
gr3 <- graficos$Tamaño_15
gr4 <- graficos$Tamaño_20
gr5 <- graficos$Tamaño_30
gr6 <- graficos$Tamaño_50
gr7 <- graficos$Tamaño_60
gr8 <- graficos$Tamaño_100
gr9 <- graficos$Tamaño_200
gr10 <- graficos$Tamaño_500
gr_qqplot <- ggarrange(gr1,gr2,gr3, gr4, gr5,
gr6, gr7, gr8, gr9, gr10,
ncol = 5, nrow = 2)
gr_final <- list()
gr_final[["qq_plot"]] <- gr_qqplot
gr_final[["density_plot"]] <- gr_densidad_plot
gr_final[["Base_p"]] <- p
return(gr_final)
}
Inicialmente se analiza la distribución de densidad obtenida al simular con un P = 10% el comportamiento de la proporción muestral, observando que la distribucion para las muestras pequeñas presentan una asimetria hacia la izquierda, multimodales, con una mayor volatilidad en los valores estimados presentando un rango mucho mas amplio. Esta situación va cambiando a medida que el tamaño de muestra incrementa, observando que la distribucion se acomoda alrededor del parametro estimado y esto es más notorio para las muestras con tamaño por encima del 50.
## Grafico de densidad
p_10 <- una_muestra(P[1], N, n,r)
plot <-p_10$density_plot
print(annotate_figure(plot,
top = text_grob(paste0(P[1]*100,"% de plantas enfermas"),
color = "blue",
face = "bold",
size = 14)))
Al probar la normalidad graficamente por medio del qq-plot y formalmente mediante la prueba shapiro - wilk podemos observa que a medida que el tamaño de muestra incrementa, los percentiles de la distribucion estimada se va acercando a los percentiles teoricos de la distribución normal. Al analizar el Valor P obtenido de la prueba Shapiro-Wilk muestra que a medida que el tamaño de muestra aumenta, el valor P se va haciendo mas grande dado mas evidencia para poder pensar que los datos se van ajustando a la distribución normal.
## Grafico qq-plot
plot <- p_10$qq_plot
print(annotate_figure(plot,
top = text_grob(paste0(P[1]*100,"% de plantas enfermas"),
color = "blue",
face = "bold",
size = 16)))
### Grafico Intervalo de Confianza
x11()
j=1
base <- p_10$Base_p
layout(matrix(c(1,6,2,7,3,8,4,9,5,10), nrow=2, byrow=FALSE))
for (k in 1:length(n)) {
lim_inf <- base[,k] - 1.96*sqrt((P[j]*(1- P[j]))/(n[k]))
lim_sup <- base[,k] + 1.96*sqrt((P[j]*(1- P[j]))/(n[k]))
plot(lim_inf,lim_sup,type="n", xlab="Intervalo de Confianza",
ylab="Repetición",
ylim=c(1,r),
xlim = c(0,1))
abline(v=P[j], col = "red")
contador <- array()
cubierto <- array()
color <- c()
for (i in 1:r) {
cubierto[i] <- P[j] >= lim_inf[i] && P[j] <= lim_sup[i]
color[i] <- ifelse(cubierto[i] == 1,"#808080","#E6E6E6")
contador[i] <- ifelse(cubierto[i],1,0)
lines(c(lim_inf[i],lim_sup[i]), c(i,i),col=color[i], lwd=1.5)
points(base[i,k], i, col =color[i], pch = 20) }
title(main = paste0("P = ", P[j], " y n = ", n[k]),
sub = paste0("Atrapa a P el ",
(sum(contador)/r)*100,"%"),
col.sub = "red")
}
Con la misma inteción, de analizar la convergencia del estimador se realiza la estimacion del intervalo de confianza del 95% para cada una de las proporciones estimadas, con esto se puede observar que para muestras más grande el número de veces que el intervalo atrapa el parametro poblacional aumenta, de la misma forma se oberva que la amplitud de los intervalos va disminuyendo dado que la variabilidad también disminuye, generando intervalos más informativos con respecto a los de muestras mas pequeñas.
Cuando aumentamos la proporción al 50% se presenta la misma situación de variabilidad en muestra pequeña, donde esta disminuye a medida que la muestra aumenta, aunque a para esta proporción es más facil alcanzar la simetria en la distribucion estimada.
Al realizar el constraste de hipotesis frente a si se obtiene una distrubución normal, se observa el mismo comportamiento que cuando el P = 10% alcanzando esta conversion mucho más rapido. En cuanto a la prueba Shapiro - Wilk se comporta de la misma manera que cuando tenemos una proporción menor, sin embargo, esta conversión es más rapida.
Cuando trabajamos con una proporción poblacional observamos que el porcentajes de veces que los intervalos atrapan este parametro es mayor en comparación al del 10% para todos los tamaños de muestras, de igual manera se observa la disminución de la variabilidad de la estimación a medida que el intervalo de confianza aumenta.
Dada que en este caso estamos cerca del 100% de plantas enfermas en la población, la distribución en las muestras pequeñas presentan una asimetria hacia la derecha, sesgada hacia proporciones muestrales grandes. Al igual que en los caso anteriores observamos mayor variabilidad en las muestras pequeñas, y obteniendo una distribución más o menos simetrica desde n = 50.
Al probar la normalidad cuando tenemos este valor extremo dentro de la población observamos que la conversión hacia la normalidad es más lenta, pero a medida que aumenta el tamaño de muestra los cuantiles teoricos de la normal se parecen a los cuantiles estimados.
En este caso el comportamiento es el mismo que observamos en los caso anteriores, pero a comparacion de la proporción poblacional del 50%, la disminucion de la variabilidad se da a medida que aumento el tamaño de muestra y eso hace que estime valores mas precisos.
Con la intención de observar el comportamiento del estadistico que me permite comparar dos muestras y poder observar si existe alguna diferencia entre los resultados obtenidos debido a los tratamientos aplicados y no al azar unicamente, se realizó una simulación para observar algunos resultadados posibles.
P1 = c(0.1, 0.1) # Porcentaje de plantas enfermas lote 1
P2 = c(0.1, 0.15) # Porcentaje de plantas enfermas lote 2
N1 = 1000 # Tamaño del lote 1
N2 = 1500 # Tamaño del lote 2
n = c(5,10,15,20,30,50,60,100,200,500) # Vector de tamaño de la muestra
r = 1000 # Numero de repeticiones
dos_muestra <- function(P1,P2,N1, N2, n, r){
lote1 = c(rep(1, N1*P1),rep(0, N1*(1-P1)))
lote2 = c(rep(1, N2*P2),rep(0, N2*(1-P2)))
p1 = matrix(0,r,length(n))
p2 = matrix(0,r,length(n))
p = matrix(0,r,length(n))
margen_error = matrix(0,r,length(n))
Base_p = matrix(0,r,length(n))
for (j in 1:length(n)){
for (i in 1:r) {
muestra1 = sample(lote1, n[j], replace = F)
muestra2 = sample(lote2, n[j], replace = F)
p1[i,j] = sum(muestra1)/length(muestra1)
p2[i,j] = sum(muestra2)/length(muestra2)
margen_error[i,j] <- (((P1*(1-P1))/n[j]) +
((P2*(1-P2))/n[j]))
p[i,j] <- p1[i,j]-p2[i,j]
}
}
p <- data.frame(p)
margen_error <- data.frame(margen_error)
colnames(p) <- paste0("Tamaño", n)
colnames(margen_error) <- paste0("Tamaño", n)
## Prueba de normalidad
p_valor_sw <- array()
for (i in 1:length(n)){
sw_test <- shapiro.test(p[,i])
p_valor_sw[i] <- sw_test$p.value
}
p_valor_sw <- data.frame(t(p_valor_sw))
colnames(p_valor_sw) <- n
### Grafico de densidad
graficos <- list()
for (i in 1:length(n)){
colnames(p) <- paste0("Tamaño", n)
colnames(p)[i] <- "Variable"
gr <- ggplot(p,aes(x = Variable*100))
gr <- gr + geom_density(color = "white",
fill = "blue",
alpha = 0.25)
gr <- gr + labs(title = paste("Grafico de densidad de p1-p2 \n","n= ",n[i]),
x = '% de plantas enfermas',
y = 'Densidad')
gr <- gr + theme_classic()
gr <- gr + theme(axis.text.x = element_text(size = 5),
axis.text.y = element_text(size = 5),
plot.title = element_text(size = 9,
face = "bold",
hjust = 0.5),
plot.subtitle = element_text(size = 8,
hjust = 0.5,
color = 'blue'))
graficos[[paste0("Tamaño_",n[i])]] <- gr
}
# Graficos para cada tamaño de muestra
gr1 <- graficos$Tamaño_5
gr2 <- graficos$Tamaño_10
gr3 <- graficos$Tamaño_15
gr4 <- graficos$Tamaño_20
gr5 <- graficos$Tamaño_30
gr6 <- graficos$Tamaño_50
gr7 <- graficos$Tamaño_60
gr8 <- graficos$Tamaño_100
gr9 <- graficos$Tamaño_200
gr10 <- graficos$Tamaño_500
gr_densidad_plot <- ggarrange(gr1,gr2,gr3, gr4, gr5,
gr6, gr7, gr8, gr9, gr10,
ncol = 5, nrow = 2)
### Grafico qq-plot
graficos <- list()
for (i in 1:length(n)){
colnames(p) <- paste0("Tamaño", n)
colnames(p)[i] <- "Variable"
gr <- ggplot(p,aes(sample = Variable))
gr <- gr + stat_qq()
gr <- gr + stat_qq_line()
gr <- gr + labs(title = paste("QQplot para el n =",n[i]),
subtitle = paste0("P-Valor Test Shapiro Wils \n",
p_valor_sw[i]),
x = 'Percentiles de la normal',
y = 'Percentiles del % \n de plantas enfermas')
gr <- gr + scale_x_continuous(limits = c(-4,4))
gr <- gr + theme_classic()
gr <- gr + theme(axis.text.x = element_text(size = 5),
axis.text.y = element_text(size = 5),
plot.title = element_text(size = 9,
face = "bold",
hjust = 0.5),
plot.subtitle = element_text(size = 8,
hjust = 0.5,
color = 'blue'))
graficos[[paste0("Tamaño_",n[i])]] <- gr
}
# Graficos para cada tamaño de muestra
gr1 <- graficos$Tamaño_5
gr2 <- graficos$Tamaño_10
gr3 <- graficos$Tamaño_15
gr4 <- graficos$Tamaño_20
gr5 <- graficos$Tamaño_30
gr6 <- graficos$Tamaño_50
gr7 <- graficos$Tamaño_60
gr8 <- graficos$Tamaño_100
gr9 <- graficos$Tamaño_200
gr10 <- graficos$Tamaño_500
gr_qqplot <- ggarrange(gr1,gr2,gr3, gr4, gr5,
gr6, gr7, gr8, gr9, gr10,
ncol = 5, nrow = 2)
gr_final <- list()
gr_final[["qq_plot"]] <- gr_qqplot
gr_final[["density_plot"]] <- gr_densidad_plot
gr_final[["Bases_p"]] <- p
gr_final[["Bases_Margen_error"]] <- margen_error
return(gr_final)
}
Al simular el comportamiento de la diferencia entre la proporción de plantas enfermas entre dos lotes donde la proporción poblacional es igual al 10% en ambas poblaciones, se puede observar que la distribución mantiene la moda en 0 independientemente del tamaño de la muestra, a medida que el tamaño de muestra aumenta la variabilidad de las estimaciones disminuye generando distribuciones mas leptocurticas, lo que nos permitiría pensar que en muestras mas grandes la capacidad del indicador de encontrar diferencias significativas entre los tratamientos es mayor.
i=1
p_iguales <- dos_muestra(P1[i],P2[i],N1, N2, n, r)
plot <- p_iguales$density_plot
print(annotate_figure(plot,
top = text_grob(paste0("P1=",P1[i]*100,"%"," y P2= ",P2[i]*100,"%",
" de plantas enfermas"),
color = "blue",
face = "bold",
size = 14)))
En cuanto al comportamiento de la normalidad de la distribución del
indicador de \(P_1 - P_2\) se observa
que a medida que el tamaño de muestra aumenta, la prueba Shapiro Wilk y
el diagrama de qq-plot nos dan evidencia estadistica para pensar que
este indicador se comporta de manera normal.
i=1
plot <- p_iguales$qq_plot
print(annotate_figure(plot,
top = text_grob(paste0("P1=",P1[i]*100,"%"," y P2= ",P2[i]*100,"%",
" de plantas enfermas"),
color = "blue",
face = "bold",
size = 14)))
Al observar el comportamiento del intervalo de confianza obtenido de las estimaciones anteriores, observamos que si bien el porcentaje de veces que el valor de la diferencia esperado se encuentra dentro del intervalo de confianza es grande para los diferentes tamaños de muestras, este indicador es mas diciente en muestras grandes dado que la variabilidad de los estimadores disminuye.
### Grafico Intervalo de Confianza
x11()
j=1
base <- p_iguales[["Bases_p"]]
margen_error <- p_iguales[["Bases_Margen_error"]]
layout(matrix(c(1,6,2,7,3,8,4,9,5,10), nrow=2, byrow=FALSE))
for (k in 1:length(n)) {
lim_inf <- base[,k] - 1.96*sqrt(margen_error[,k])
lim_sup <- base[,k] + 1.96*sqrt(margen_error[,k])
a= P1[j]-P2[j]
plot(lim_inf,lim_sup,type="n", xlab="Intervalo de Confianza 95%",
ylab="Repetición",
ylim=c(1,r),
xlim = c(-1,1))
abline(v = a , col = "red")
contador <- array()
cubierto <- array()
color <- c()
for (i in 1:r) {
cubierto[i] <- a >= lim_inf[i] && a <= lim_sup[i]
color[i] <- ifelse(cubierto[i] == 1,"#808080","#E6E6E6")
contador[i] <- ifelse(cubierto[i],1,0)
lines(c(lim_inf[i],lim_sup[i]), c(i,i),col=color[i], lwd=1.5)
points(base[i,k], i, col =color[i], pch = 20)
}
title(main = paste0("P1 = ", P1[j], ", P2 = ",P2[j]," \n n = ", n[k]),
sub = paste0("Atrapa la diferencia el ",
(sum(contador)/r)*100,"%"),
col.sub = "red")
}
Cuando analizamos el comportamiento del indicador \(P_1 - P_2\) considerando una diferencia del 5% entre los tratamientos aplicados se observa el mismo comportamiento descrito anteriormente, pero con la diferencia de que la distribución ya no se encuentra al rededor del 0 sino al -5% dado que la proporción de \(P_2\) es mayor, esta diferencia es más facil identificarla en muestras más grandes.
En cuanto al comportamiento de la normalidad de la distribución del indicador de \(P_1 - P_2\) se observa lo mismo que observabamos con poblaciones sin diferencia entre los efectos, que a medida que el tamaño de muestra aumenta, la prueba Shapiro Wilk y el diagrama de qq-plot nos dan evidencia estadistica para pensar que este indicador se comporta de manera normal.
En el caso de poblaciones con diferencia en los efectos, se observa el mismo comportamiento de la simulación anterior, obtenemos intervalos de confianza mas diciente cuando trabajamos con muestras grandes al reducir la variabilidad.
Del punto 1 podemos concluir que efectivamente para muestras grandes se observa una convergencia hacia la normalidad, pero esta convergencia es más rapida en proporciones poblacionales cercanas al 50%. En valores extremos cercanos a 0 o cercanos a 1 esta convergencia es mas lenta, si bien se alcanza una distribucion simetrica, las pruebas de normalidad en dichos valores necesitan al parecer tamaños de muestras mas grandes.
Del punto 2 podemos concluir que para muestras grandes la consitencia entre lo que nos dice la muestras versus el resultado poblacional es mas evidente, muestras más pequeñas podrian llevarnos a decir que existe un efecto entre los tratamientos cuando realmente no lo hay o viceversa. En cuanto a la normalidad, se evidencia que a medida que el tamaño de muestra aumenta el comparativo de los cuantiles teoricos con los estimados es mas similar y obtenemos valores P mas cercanos a la zona de aceptación de la hipotesis nula.
El articulo “P values, the ‘gold standard’ of statistical validity, are not as reliable as many scientists assume”, escrito por Reggina Nuzzo, es un critica de como hoy en día los investigadores hacen uso del P valor para llegar a conclusiones de causalidad. Explica que el Valor P que introdujo Fisher en 1920 no pretendía ser una prueba definitiva, sino que se usara como una forma informal para juzgar si las pruebas eran significativas observando la coherencia con lo que se podría obtener por la aleatoriedad. Se buscaba que el valor P fuese solo una parte del proceso fluido y no numérico que estuviese combinado entre los datos y los conocimientos previos para poder llegar a conclusiones científicas.
En el artículo se dice que la pregunta que los científicos deberían estar buscando dentro de sus investigaciones es cuánto hay de un efecto y no si lo hay. Y es en este segundo donde se ha enfocado el uso erróneamente del Valor P, usándose para dar conclusiones como “solo hay el 1% de probabilidad de que el resultado obtenido sea una falsa alarma”, sin considerar que este indicador es un dato que nos resume la información bajo el supuesto de una hipótesis nula especifica, para llegar a dar ese nivel de afirmaciones se necesita más información como por ejemplo las posibilidades de que exista un efecto real en lo que estemos observando. Ignorar esto podría llevarnos a tomar conclusiones como por ejemplo “decir que hay un raro tumor cerebral dado que nos levantamos con dolor de cabeza, es posible que esto suceda, pero su probabilidad es muy baja por lo que se requiere realizar muchos estudios para poder descartas otras afectaciones más cotidianas como una reacción alérgica”.
Reggina Nuzzo también genera una crítica en su artículo de lo que se denomina P-hacking, que no es nada más que probar diferentes estrategias hasta conseguir el P-Value deseado, lo que lleva a tratarse con escepticismo los descubrimientos de los estudios exploratorios, dado que, si bien parecen conclusiones sólidas al momento de realizar la replicación de estos, estas no se mantienen. Con la finalidad de disminuir la trampa de pensar en resultados significativos o no significativos hay estadísticos que han señalado algunas medidas que podrían ayudar en las que se encuentran por ejemplo informar los tamaños de los efectos y los intervalos de confianza para de esta forma transmitir lo que el Valor P no puede y es la magnitud y la importancia relativa de los efectos encontrados dentro de la investigación. Otros estadísticos abogan por reemplazar el Valor P con métodos que hagan uso de la regla de Bayes, aunque esto implica cierta subjetividad, pero dentro del marco bayesiano hace que sea relativamente fácil para los observadores incorporar lo que saben sobre el mundo en sus conclusiones y calcular como cambian las probabilidades a medida que surge una nueva evidencia.
Dentro del articulo Reggina comenta que la posición de Simonsohn está en alentar a los autores a calificar sus artículos como “P-Certificado, no P-hackeado” al informar de qué manera se determinó el tamaño de la muestra, todas las exclusiones que se dieron, las manipulaciones y todas las medidas tomadas en el estudio y de esta forma se buscaría para disminuir el P-hacking o alertar a los lectores sobre cualquier circunstancia anómala y de esa forma juzgar con mayor información una investigación.
En cuanto al artículo “Statisticians issue warning on P values - Statement aims to halt missteps in the quest for certainty” escrito por Monya Baker no dice que el uso incorrecto del Valor P está contribuyendo generar resultados en las investigaciones que no pueden reproducirse, es por esto que la Asociación Americana de Estadística (ASA en sus siglas en inglés) decidió publicar los principios para guiar el uso de valor P, donde especifica que no se puede determinar si una hipótesis es verdadera o si los resultados son importantes únicamente con este dato. Esto se da dada la preocupación que presenta la sociedad la aplicación incorrecta de este indicador y como esto podría colocar en duda a la estadística en general. Por tanto, sugieren describir no solo los análisis de los datos que producen los resultados estadísticamente significativos, sino que todas las pruebas estadísticas y las elecciones realizadas en los cálculos. Un valor P del 0.05 significa que hay un 5% de posibilidades de obtener un resultado al menos tan extremo como el que genero ese Valor P, no nos indica la importancia de un hallazgo.
El articulo también expresa que la prohibición de publicar los Valores P en los artículos puede llegar a ser contraproducente debido a que muchos de los científicos probablemente ignorarían esta medida, el camino debería estar enfocado a tratar a la estadística como una ciencia y no como una receta. Aunque también hay expertos que dicen que “una mejor comprensión del Valor P no eliminará el impulso humano de utilizar la estadística para crear un nivel imposible de certeza, dado que la gente desea conseguir algo que realmente no pueden”.
Baker, Monya. “Statisticians issue warning on P values: statement aims to halt missteps in the quest for certainty.” Nature, vol. 531, no. 7593, 10 Mar. 2016, p. 151. Gale Academic OneFile, link.gale.com/apps/doc/A445983358/AONE?u=googlescholar&sid=bookmark-AONE&xid=aa54f68d. Accessed 2 Apr. 2022.
Nuzzo, R. (2014). Statistical errors: P values, the’gold standard’of statistical validity, are not as reliable as many scientists assume. Nature, 506(7487), 150-153.