1. Las siguientes afirmaciones son verdaderas o falsas, justifique

Verdadero o falso.

  1. Si el valor p para una prueba es .046, la hipótesis nula puede ser rechazada en el nivel de signifincancia \(\alpha = 0.05.\) verdadero
  2. En una prueba formal de hipótesis, \(\alpha\) es la probabilidad de que la hipótesis nula sea incorrecta. falso
  3. Si el valor p es muy pequeño para una prueba que compara dos medias poblacionales, la diferencia entre las medias debe ser grande. Falso
  4. Si .01 < valor p < .025, la hipótesis nula siempre puede ser rechazada en el nivel de signifincancia \(\alpha\) = .02. Falso
  5. La significancia de la prueba es No rechazar la hipotesis nula dado que es cierta Falso, esto es la confianza
  6. La potencia es 1- la probabilidad de eror tipo II Verdadero
  7. Es de esperar que \(1-\alpha\)% de las muestras posibles lleven a rechazar la hipotesis nula cuando es falsa. Falso, esto es \(\alpha\)
  8. las pruebas de hipotesis estudiadas bajo normalidad son robustas al incumplimiento del supuesto de normalidad. Falso
  9. El valor p mide el grado de desacuerdo entre la muestra y la hipótesis nula. verdadero
  10. La probabilidad de error tipo II en una prueba de diferencia de medias incrementa ante mayor variabilidad en ambos grupos Verdadero
  11. La probabilidad de error tipo II en una prueba de diferencia de medias incrementa ante mayor variabilidad en ambos grupos
  12. La inferencia estadística produce conclusiones indiscutibles, dado que es axiomática y deductiva.
  13. El nivel de significancia para un intervalo de confianza afecta la amplitud para un conjunto de números que siempre contienen al parámetro. Falso, no siempre contiene el verdadero valor–>
  14. Significancia estadística implica Significancia clínica falso, puedo encontrar significancias estadisticas que no cambien un desenlace
  15. En una prueba de hipótesis se desea aceptar la hipótesis nula

2. El valor de p que maximiza el tamaño de muestra para una proporción bajo normalidad es

\[{\displaystyle n={\frac {{Z}_{\alpha }^{2}Npq}{e^{2}(N-1)+{Z}_{\alpha }^{2}pq}}}\]

  1. 0.1
  2. 0.5
  3. 0.9
prob=seq(0,1,by=0.05)
Z=1.96
N=5000
e=0.05

n=(Z^2*N*prob*(1-prob))/(e^2*(N-1)+Z^2*prob*(1-prob))
plot(cbind(prob,n), main="tamaño de la muestra para distintos prob")

3. Explique la corrección de Bonferroni

Una prueba de hipótesis estadística se basa en rechazar la hipótesis nula si la probabilidad de los datos observados respalden la hipótesis nula es baja. Si se prueban múltiples hipótesis, aumenta la probabilidad de que ocurra un evento raro y, por lo tanto, aumenta la probabilidad de rechazar incorrectamente una hipótesis nula (es decir, cometer un error de tipo I.)

La corrección de Bonferroni compensa ese aumento al probar cada hipótesis individual a un nivel significativo de \({\displaystyle \alpha / m}\), donde \({\displaystyle \ alpha}\) es el nivel de alfa total deseado y { displaystyle m} es el número de hipótesis. Por ejemplo, si un ensayo está probando hipótesis \({\ displaystyle m = 20}\) con un \({\displaystyle \ alpha = 0.05}\) deseado, entonces la corrección de Bonferroni probaría cada hipótesis individual en \({\displaystyle \alpha = 0.05 / 20 = 0.0025}\).

Crítica Con respecto al control FWER, la corrección de Bonferroni puede ser conservadora si hay un gran número de pruebas y / o las estadísticas de las pruebas están correlacionadas positivamente. La corrección tiene el costo de aumentar la probabilidad de producir falsos negativos, es decir, reducir el poder estadístico. [9] No existe un consenso definitivo sobre cómo definir una familia en todos los casos, y los resultados de las pruebas ajustadas pueden variar dependiendo del número de pruebas incluidas en la familia de hipótesis. [Cita requerida] Tenga en cuenta que estas críticas se aplican al control FWER en general, y no son específicos de la corrección de Bonferroni. https://en.wikipedia.org/wiki/Bonferroni_correction https://en.wikipedia.org/wiki/Family-wise_error_rate

4. Que limitaciones puede tener la corrección de Bonferroni en términos de \(\beta\).

Incrementará la probabilidad de error tipo II al reducir \(\alpha\) se incrementa \(\beta\), tampoco medir 30 desenlaces es opción.

5. Cuales son las consecuencias la falta de normalidad.

a

  1. Los intervalos de confianza y las pruebas de hipotesis son invalidos.
  2. Ninguna, la teoría es robusta a este supuesto.
  3. En el caso de muestras grandes se puede suponer que la distribución siempre es normal.
  4. Los intervalos de confianza son válidos y las pruebas de hipotesis son invalidos.

6. La lógica de una prueba de hipótesis es del tipo

b

  1. Inductiva
  2. Reducción al absurdo
  3. Axiomática
  4. Bayesiana

7. Siempre se desea _____ la hipotesis ______ pues esto garantiza_____________

b

  1. Aceptar, Nula, que suponiendo la nula verdadera en la muestra hay suficiente evidencia para acptarla mostrando que mi supuestos son correctos.

  2. Rechazar, Nula, que suponiendo la nula verdadera en la muestra hay suficiente evidencia para rechazarla en favor de la alternativa.

  3. Rechazar, alternativa, que suponiendo la altertativa verdadera en la muestra hay insuficiente evidencia para rechazarla en favor de la alternativa.

  4. Rechazar, alternativa, que suponiendo la alternativa falsa en la muestra hay suficiente evidencia para aceptarla en favor de la nula.

8. En el caso de no rechazar la hipótesis ______ podemos concluir que con la muestra ______________

b

  1. alternativa, no es posible rechazar la hipótesis nula lo que no implica que podemos aceptarla.

  2. Nula, no es posible rechazar la hipótesis nula lo que no implica que podemos aceptarla.

  3. alternativa, es posible rechazar la hipótesis alternaviva, pues la muestar contiene información significativa que lo prueba.

  4. Nula, es posible rechazar la hipótesis nula, pues podemos suponer que es una muestra atípica.

9. Si la población se distribuye X ~ N (50,10), media 50 y varianza 10. calcular Pr (40≤ X ≤77).

pnorm(77,50,10)-pnorm(40,50,10)
## [1] 0.8378778

10. ¿Càlcular el intervalo de confianza del 95% de confianza para estimar la media población para una muestra de una población normal de tamaño 10 con media muestral 48 y varianza 9?

\[T=\frac{\bar{X}-\mu}{S_n/\sqrt{n}}\sim t_{(n-1)}\] Donde \(S_n^2=\frac{1}{n-1}\sum_{i=1}^{n}(X_i-\bar{X})^2\).\ Así, \(L_I=\bar{X}-t_{(n-1)1-\alpha/2}S_n/\sqrt{n}\) y \(L_S=\bar{X}+t_{(n-1)1-\alpha/2}S_n/\sqrt{n}\), donde \(t_{(n-1)1-\alpha/2}\) es el percentil \(1-\alpha/2\) de una distribución \(t\) con \(n-1\) grados de libertad.

mu<-48
sigma2<-9
n<-10
alpha<-0.05
mu+qt(c(alpha/2,1-alpha/2), df = n-1)*(sqrt(sigma2)/sqrt(n))
## [1] 45.85393 50.14607

11. ¿Càlcular el intervalo de confianza del 95% de confianza para estimar la media población para una muestra de una población normal de tamaño 10 con media muestral 48 y varianza 9 y la varianza poblacional es 10?

\[Z=\frac{\bar{X}-\mu}{\sigma/\sqrt{n}}\sim N(0,1)\]

mu<-48
sigma2<-10
n<-10
alpha<-0.05
mu+qnorm(c(alpha/2,1-alpha/2))*(sqrt(sigma2)/sqrt(n))
## [1] 46.04004 49.95996

12. Calcular un intervalo de confianza al nivel \(\alpha= 0.1\) para la probabilidad de p de que un recién nacido sea niño si en una muestra de tamaño 654 se han obtenido 456 niños.

\[\frac{\hat p-p}{\sqrt{\frac{\hat p(1-\hat p)}{n}}}\rightarrow N(0,1)\]

pgorro <- 456/654
alpha <-0.1
n<-654
pgorro
## [1] 0.6972477
pgorro+qnorm(c(alpha/2,1-alpha/2))*(sqrt(pgorro*(1-pgorro))/sqrt(n))
## [1] 0.6676965 0.7267989

13. Calcular un intervalo de confianza al nivel \(\alpha= 0.001\) para el peso exacto mediante los resultados obtenidos con 10 básculas: 67.20, 67.01, 67.36, 69.91, 67.22, 66.03, 67.11, 67.12, 67.03, 67.05

pesos<-c(67.20, 67.01, 67.36, 69.91, 67.22, 66.03, 67.11, 67.12, 67.03, 67.05 )
mu<-mean(pesos)
sigma2<-var(pesos)
alpha<-0.001
n<-length(pesos)

mu+qt(c(alpha/2,1-alpha/2), df = n-1)*(sqrt(sigma2)/sqrt(n))
## [1] 65.81475 68.79325

14. Calcular un intervalo de confianza al nivel \(\alpha = 0.05\) para \(\sigma^2\) mediante las desviaciones que se producen en un proceso de fabricación cuya distribución es N(0,) a partir de la muestra 1.2, -2.2, -3.1, -0.2, 0.5, 0.6, -2.1, 2.2, 1.3

pesos<-c(1.2, -2.2, -3.1, -0.2, 0.5, 0.6, -2.1, 2.2, 1.3 )
mu<-mean(pesos)
sigma2<-var(pesos)
alpha<-0.05
n<-length(pesos)
((n-1)*sigma2)/qchisq(c(alpha/2,1-alpha/2), df = n-1)
## [1] 12.441904  1.546661

15. Se desea estudiar la efectividad de un medicamento contra la diabetes tipo II para lo cual se mide la cantidad de glucemia en sangre antes y después de la administración de dicho medicamento, obteniéndose los resultados siguientes:

Antes 7.2 7.3 6.5 4.2 3.1 5.3 5.6

Después 5.2 5.4 5.3 4.7 4.1 5.4 4.9

Realice la prueba de hipótesis de que ambos medicamentos son similares a un nivel de significancia del 5%

antes<-c( 7.2 , 7.3,  6.5,  4.2,  3.1,  5.3,  5.6 )
despues<-c( 5.2  ,5.4  ,5.3 , 4.7,  4.1 , 5.4,  4.9)

welch.test <- t.test(antes,despues)
welch.test
## 
##  Welch Two Sample t-test
## 
## data:  antes and despues
## t = 0.97455, df = 7.1112, p-value = 0.3618
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -0.8512229  2.0512229
## sample estimates:
## mean of x mean of y 
##       5.6       5.0
mu1<-mean(antes)
mu2<-mean(despues)
s1<-var(antes)
s2<-var(despues)


mu1
## [1] 5.6
mu2
## [1] 5
s1
## [1] 2.426667
s2
## [1] 0.2266667
n1<-length(antes)
n2<-length(despues)
alpha<-0.05

f<- ((s1/n1+s2/n2)^2)/((s1/n1)^2/(n1-1))+(((s2/n2)^2)/(n2-1))

(mu1-mu2)+qt(c(alpha/2,1-alpha/2),df = f)*sqrt(s1/n1+s2/n2)
## [1] -0.8487208  2.0487208

16.Diagnostique si los siguientes datos proceden de una distribución normal

(-0.682, -1.313, -0.127, -1.868, 1.604, 2.367, 0.423, 1.827, -1.184, -0.382, -0.069, -0.276, -0.882, 0.532, -0.11, -0.152, -4.962, -0.564, 0.95, 2.24, 0.657, -0.086, -0.032, 0.491, -1.435)

set.seed(123)
x<-rt(25,5)
x<-round(x,3)
dput(x)
## c(-0.682, -1.313, -0.127, -1.868, 1.604, 2.367, 0.423, 1.827, 
## -1.184, -0.382, -0.069, -0.276, -0.882, 0.532, -0.11, -0.152, 
## -4.962, -0.564, 0.95, 2.24, 0.657, -0.086, -0.032, 0.491, -1.435
## )
qqnorm(x)
qqline(x)
shapiro.test(x)
## 
##  Shapiro-Wilk normality test
## 
## data:  x
## W = 0.90584, p-value = 0.02464
library("tseries")

jarque.bera.test(x )
## 
##  Jarque Bera Test
## 
## data:  x
## X-squared = 12.674, df = 2, p-value = 0.00177
x1<-c(-0.682, -1.313, -0.127, -1.868, 1.604, 2.367, 0.423, 1.827, -1.184, -0.382, -0.069, -0.276, -0.882, 0.532, -0.11, -0.152, -4.962, -0.564, 0.95, 2.24, 0.657, -0.086, -0.032, 0.491, -1.435)

shapiro.test(x1)
## 
##  Shapiro-Wilk normality test
## 
## data:  x1
## W = 0.90584, p-value = 0.02464

17. Diagnostique si los siguientes datos proceden de una distribución normal

(2.198, 3.849, 12.794, 5.353, 5.646, 13.575, 7.305, -1.325, 1.566, 2.772, 11.12, 6.799, 7.004, 5.553, 2.221)

set.seed(123)
x<-rnorm(15,5,5)
x<-round(x,3)
dput(x)
## c(2.198, 3.849, 12.794, 5.353, 5.646, 13.575, 7.305, -1.325, 
## 1.566, 2.772, 11.12, 6.799, 7.004, 5.553, 2.221)
qqnorm(x)

shapiro.test(x)
## 
##  Shapiro-Wilk normality test
## 
## data:  x
## W = 0.94966, p-value = 0.5191
library("tseries")
jarque.bera.test(x )
## 
##  Jarque Bera Test
## 
## data:  x
## X-squared = 0.63075, df = 2, p-value = 0.7295

18. Un experimentador está convencido de que la variabilidad en su equipo de medición resulta en una desviación estándar de 2. Dieciséis mediciones dieron como resultado \(s^2 = 6.1\). ¿Los datos contradicen su afirmación? Determine el valor p para la prueba. ¿Qué concluiría usted si elige a = .05?

\[\chi^2=\frac{(n-1)S^2_n}{\sigma^2}\sim\chi^2_{(n-1)}\]

Requerimos una prueba de \[H_0 : s^2 = 4\] \[vs\] \[H_a: s^2\ne 4\]

n<-16
s2<-6.1
Sigma2<-4
alpha<-0.05

chi_calculado<-((n-1)*s2)/Sigma2
chi_calculado
## [1] 22.875
qchisq(p = c(alpha/2,1-alpha/2),df = n-1)
## [1]  6.262138 27.488393
2*(1-pchisq(chi_calculado,df = n-1))
## [1] 0.1736603

Una muestra tan inverosimil a una cola, pero la prueba es a dos. No se rechaza la nula. es evidente que el valor seleccionado de a = .05 es menor que el valor p; por tanto, no podemos rechazar lo dicho por los experimentadores en el nivel de a = .05.

19. el tiempo requerido para completar un procedimiento de ensamble usando dos métodos diferentes de capacitación. Los datos muestrales son los que aparecen en la Tabla ¿Hay sufi ciente evidencia para indicar una diferencia en los verdaderos tiempos medios de ensamble para quienes se capacitan usando los dos métodos? Pruebe al nivel \(\alpha = .05\) de significancia.

Procedimiento estándar Nuevo procedimiento
n_1 = 9 n_2 = 9
y_1 = 35.22 segundos y_2 = 31.56 segundos
\(\sum_{i=1}^9(y_{1i-}\bar y_1)^2=195.56\) \(\sum_{i=1}^9(y_{2i-}\bar y_2)^2=160.22\)

\[H_0:\ (\mu_1-\mu_2)=0\]
\[vs\] \[H_a: (\mu_1-\mu_2)\ne 0\]

\[T=\frac{\bar{X}-\bar{Y}-(\mu_x-\mu_y)}{\sqrt{\frac{S^2_{n_1}}{n_1}+\frac{S^2_{n_2}}{n_2}}}\sim t_{(f-1)}\]

n1<-9
n2<-9
mu1<-35.22
mu2<-31.56
sc1<-195.56
sc2<-160.22
alpha<-0.05

s1<-sc1/n1
s2<-sc2/n2

f<- ((s1/n1+s2/n2)^2)/((s1/n1)^2/(n1-1))+(((s2/n2)^2)/(n2-1))

# (mu1-mu2)+qt(c(alpha/2,1-alpha/2),df = f)*sqrt(s1/n1+s2/n2)

(mu1-mu2)/sqrt(s1/n1+s2/n2)
## [1] 1.746356
qt(c(alpha/2,1-alpha/2),f)
## [1] -2.051946  2.051946

No se rechaza la nula.