Verdadero o falso.
\[{\displaystyle n={\frac {{Z}_{\alpha }^{2}Npq}{e^{2}(N-1)+{Z}_{\alpha }^{2}pq}}}\]
prob=seq(0,1,by=0.05)
Z=1.96
N=5000
e=0.05
n=(Z^2*N*prob*(1-prob))/(e^2*(N-1)+Z^2*prob*(1-prob))
plot(cbind(prob,n), main="tamaño de la muestra para distintos prob")
Una prueba de hipótesis estadística se basa en rechazar la hipótesis nula si la probabilidad de los datos observados respalden la hipótesis nula es baja. Si se prueban múltiples hipótesis, aumenta la probabilidad de que ocurra un evento raro y, por lo tanto, aumenta la probabilidad de rechazar incorrectamente una hipótesis nula (es decir, cometer un error de tipo I.)
La corrección de Bonferroni compensa ese aumento al probar cada hipótesis individual a un nivel significativo de \({\displaystyle \alpha / m}\), donde \({\displaystyle \ alpha}\) es el nivel de alfa total deseado y { displaystyle m} es el número de hipótesis. Por ejemplo, si un ensayo está probando hipótesis \({\ displaystyle m = 20}\) con un \({\displaystyle \ alpha = 0.05}\) deseado, entonces la corrección de Bonferroni probaría cada hipótesis individual en \({\displaystyle \alpha = 0.05 / 20 = 0.0025}\).
Crítica Con respecto al control FWER, la corrección de Bonferroni puede ser conservadora si hay un gran número de pruebas y / o las estadísticas de las pruebas están correlacionadas positivamente. La corrección tiene el costo de aumentar la probabilidad de producir falsos negativos, es decir, reducir el poder estadístico. [9] No existe un consenso definitivo sobre cómo definir una familia en todos los casos, y los resultados de las pruebas ajustadas pueden variar dependiendo del número de pruebas incluidas en la familia de hipótesis. [Cita requerida] Tenga en cuenta que estas críticas se aplican al control FWER en general, y no son específicos de la corrección de Bonferroni. https://en.wikipedia.org/wiki/Bonferroni_correction https://en.wikipedia.org/wiki/Family-wise_error_rate
Incrementará la probabilidad de error tipo II al reducir \(\alpha\) se incrementa \(\beta\), tampoco medir 30 desenlaces es opción.
a
b
b
Aceptar, Nula, que suponiendo la nula verdadera en la muestra hay suficiente evidencia para acptarla mostrando que mi supuestos son correctos.
Rechazar, Nula, que suponiendo la nula verdadera en la muestra hay suficiente evidencia para rechazarla en favor de la alternativa.
Rechazar, alternativa, que suponiendo la altertativa verdadera en la muestra hay insuficiente evidencia para rechazarla en favor de la alternativa.
Rechazar, alternativa, que suponiendo la alternativa falsa en la muestra hay suficiente evidencia para aceptarla en favor de la nula.
b
alternativa, no es posible rechazar la hipótesis nula lo que no implica que podemos aceptarla.
Nula, no es posible rechazar la hipótesis nula lo que no implica que podemos aceptarla.
alternativa, es posible rechazar la hipótesis alternaviva, pues la muestar contiene información significativa que lo prueba.
Nula, es posible rechazar la hipótesis nula, pues podemos suponer que es una muestra atípica.
pnorm(77,50,10)-pnorm(40,50,10)
## [1] 0.8378778
\[T=\frac{\bar{X}-\mu}{S_n/\sqrt{n}}\sim t_{(n-1)}\] Donde \(S_n^2=\frac{1}{n-1}\sum_{i=1}^{n}(X_i-\bar{X})^2\).\ Así, \(L_I=\bar{X}-t_{(n-1)1-\alpha/2}S_n/\sqrt{n}\) y \(L_S=\bar{X}+t_{(n-1)1-\alpha/2}S_n/\sqrt{n}\), donde \(t_{(n-1)1-\alpha/2}\) es el percentil \(1-\alpha/2\) de una distribución \(t\) con \(n-1\) grados de libertad.
mu<-48
sigma2<-9
n<-10
alpha<-0.05
mu+qt(c(alpha/2,1-alpha/2), df = n-1)*(sqrt(sigma2)/sqrt(n))
## [1] 45.85393 50.14607
\[Z=\frac{\bar{X}-\mu}{\sigma/\sqrt{n}}\sim N(0,1)\]
mu<-48
sigma2<-10
n<-10
alpha<-0.05
mu+qnorm(c(alpha/2,1-alpha/2))*(sqrt(sigma2)/sqrt(n))
## [1] 46.04004 49.95996
\[\frac{\hat p-p}{\sqrt{\frac{\hat p(1-\hat p)}{n}}}\rightarrow N(0,1)\]
pgorro <- 456/654
alpha <-0.1
n<-654
pgorro
## [1] 0.6972477
pgorro+qnorm(c(alpha/2,1-alpha/2))*(sqrt(pgorro*(1-pgorro))/sqrt(n))
## [1] 0.6676965 0.7267989
pesos<-c(67.20, 67.01, 67.36, 69.91, 67.22, 66.03, 67.11, 67.12, 67.03, 67.05 )
mu<-mean(pesos)
sigma2<-var(pesos)
alpha<-0.001
n<-length(pesos)
mu+qt(c(alpha/2,1-alpha/2), df = n-1)*(sqrt(sigma2)/sqrt(n))
## [1] 65.81475 68.79325
pesos<-c(1.2, -2.2, -3.1, -0.2, 0.5, 0.6, -2.1, 2.2, 1.3 )
mu<-mean(pesos)
sigma2<-var(pesos)
alpha<-0.05
n<-length(pesos)
((n-1)*sigma2)/qchisq(c(alpha/2,1-alpha/2), df = n-1)
## [1] 12.441904 1.546661
Antes 7.2 7.3 6.5 4.2 3.1 5.3 5.6
Después 5.2 5.4 5.3 4.7 4.1 5.4 4.9
Realice la prueba de hipótesis de que ambos medicamentos son similares a un nivel de significancia del 5%
antes<-c( 7.2 , 7.3, 6.5, 4.2, 3.1, 5.3, 5.6 )
despues<-c( 5.2 ,5.4 ,5.3 , 4.7, 4.1 , 5.4, 4.9)
welch.test <- t.test(antes,despues)
welch.test
##
## Welch Two Sample t-test
##
## data: antes and despues
## t = 0.97455, df = 7.1112, p-value = 0.3618
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -0.8512229 2.0512229
## sample estimates:
## mean of x mean of y
## 5.6 5.0
mu1<-mean(antes)
mu2<-mean(despues)
s1<-var(antes)
s2<-var(despues)
mu1
## [1] 5.6
mu2
## [1] 5
s1
## [1] 2.426667
s2
## [1] 0.2266667
n1<-length(antes)
n2<-length(despues)
alpha<-0.05
f<- ((s1/n1+s2/n2)^2)/((s1/n1)^2/(n1-1))+(((s2/n2)^2)/(n2-1))
(mu1-mu2)+qt(c(alpha/2,1-alpha/2),df = f)*sqrt(s1/n1+s2/n2)
## [1] -0.8487208 2.0487208
(-0.682, -1.313, -0.127, -1.868, 1.604, 2.367, 0.423, 1.827, -1.184, -0.382, -0.069, -0.276, -0.882, 0.532, -0.11, -0.152, -4.962, -0.564, 0.95, 2.24, 0.657, -0.086, -0.032, 0.491, -1.435)
set.seed(123)
x<-rt(25,5)
x<-round(x,3)
dput(x)
## c(-0.682, -1.313, -0.127, -1.868, 1.604, 2.367, 0.423, 1.827,
## -1.184, -0.382, -0.069, -0.276, -0.882, 0.532, -0.11, -0.152,
## -4.962, -0.564, 0.95, 2.24, 0.657, -0.086, -0.032, 0.491, -1.435
## )
qqnorm(x)
qqline(x)
shapiro.test(x)
##
## Shapiro-Wilk normality test
##
## data: x
## W = 0.90584, p-value = 0.02464
library("tseries")
jarque.bera.test(x )
##
## Jarque Bera Test
##
## data: x
## X-squared = 12.674, df = 2, p-value = 0.00177
x1<-c(-0.682, -1.313, -0.127, -1.868, 1.604, 2.367, 0.423, 1.827, -1.184, -0.382, -0.069, -0.276, -0.882, 0.532, -0.11, -0.152, -4.962, -0.564, 0.95, 2.24, 0.657, -0.086, -0.032, 0.491, -1.435)
shapiro.test(x1)
##
## Shapiro-Wilk normality test
##
## data: x1
## W = 0.90584, p-value = 0.02464
(2.198, 3.849, 12.794, 5.353, 5.646, 13.575, 7.305, -1.325, 1.566, 2.772, 11.12, 6.799, 7.004, 5.553, 2.221)
set.seed(123)
x<-rnorm(15,5,5)
x<-round(x,3)
dput(x)
## c(2.198, 3.849, 12.794, 5.353, 5.646, 13.575, 7.305, -1.325,
## 1.566, 2.772, 11.12, 6.799, 7.004, 5.553, 2.221)
qqnorm(x)
shapiro.test(x)
##
## Shapiro-Wilk normality test
##
## data: x
## W = 0.94966, p-value = 0.5191
library("tseries")
jarque.bera.test(x )
##
## Jarque Bera Test
##
## data: x
## X-squared = 0.63075, df = 2, p-value = 0.7295
\[\chi^2=\frac{(n-1)S^2_n}{\sigma^2}\sim\chi^2_{(n-1)}\]
Requerimos una prueba de \[H_0 : s^2 = 4\] \[vs\] \[H_a: s^2\ne 4\]
n<-16
s2<-6.1
Sigma2<-4
alpha<-0.05
chi_calculado<-((n-1)*s2)/Sigma2
chi_calculado
## [1] 22.875
qchisq(p = c(alpha/2,1-alpha/2),df = n-1)
## [1] 6.262138 27.488393
2*(1-pchisq(chi_calculado,df = n-1))
## [1] 0.1736603
Una muestra tan inverosimil a una cola, pero la prueba es a dos. No se rechaza la nula. es evidente que el valor seleccionado de a = .05 es menor que el valor p; por tanto, no podemos rechazar lo dicho por los experimentadores en el nivel de a = .05.
| Procedimiento estándar | Nuevo procedimiento |
|---|---|
| n_1 = 9 | n_2 = 9 |
| y_1 = 35.22 segundos | y_2 = 31.56 segundos |
| \(\sum_{i=1}^9(y_{1i-}\bar y_1)^2=195.56\) | \(\sum_{i=1}^9(y_{2i-}\bar y_2)^2=160.22\) |
\[H_0:\ (\mu_1-\mu_2)=0\]
\[vs\] \[H_a: (\mu_1-\mu_2)\ne 0\]
\[T=\frac{\bar{X}-\bar{Y}-(\mu_x-\mu_y)}{\sqrt{\frac{S^2_{n_1}}{n_1}+\frac{S^2_{n_2}}{n_2}}}\sim t_{(f-1)}\]
n1<-9
n2<-9
mu1<-35.22
mu2<-31.56
sc1<-195.56
sc2<-160.22
alpha<-0.05
s1<-sc1/n1
s2<-sc2/n2
f<- ((s1/n1+s2/n2)^2)/((s1/n1)^2/(n1-1))+(((s2/n2)^2)/(n2-1))
# (mu1-mu2)+qt(c(alpha/2,1-alpha/2),df = f)*sqrt(s1/n1+s2/n2)
(mu1-mu2)/sqrt(s1/n1+s2/n2)
## [1] 1.746356
qt(c(alpha/2,1-alpha/2),f)
## [1] -2.051946 2.051946
No se rechaza la nula.