Pruebas de Hipótesis en Rstudio

Author

Zúñiga Guamán P.

Pruebas de Hipótesis

Cuando estamos dispuestos a realizar una prueba de hipótesis, en la forma más general, nos interesa establecer una hipótesis respecto a la población que se está estudiando (generalmente sobre sus parámetros), de la cual, basándonos en una muestra de la misma tenemos como objetivo, decidir entre la hipótesis planteada y una hipótesis complementaria, cual de estas es verdadera.

Las hipótesis se contrastan en la siguiente expresión:

H0:H0 es verdaderavsH1:H0 es falsa H_{0}: H_{0} \text{ es verdadera} \quad vs \quad H_{1}: H_{0} \text{ es falsa} Donde H0H_{0} es llamada hipótesis nula y H1H_{1} es llamada hipótesis alternativa, complementaria o de investigación.

Al inferir sobre un parámetro poblacional θ\theta, se define el espacio de parámetros Θ=Θ0Θ1\Theta = \Theta_{0} \cup \Theta_{1}, y el contraste se establece como

H0:θΘ0vsH1:θΘ1 H_{0}: \theta \in \Theta_{0} \quad vs \quad H_{1}: \theta \in \Theta_{1} Se define además un estadístico de prueba o cantidad Pivotal TT que está en función de la muestra y el parámetro del cual deseamos inferir de tal forma que, el estadístico de prueba T siga una distribución conocida DD bajo el supuesto de que H0H_{0} es verdadera.

TH0D(x;θ0) T \stackrel{H_0}{\sim} D(x; \theta_{0})

La regla de decisión consta de una llamada Regíón Crítica o de Rechazo (RC) con una probabilidad de cometer Error tipo I(Rechazar H0H_{0} dado que H0H_{0} es verdadera), de tal forma que, si el estadístico observado TRCT \in RC, entonces se rechaza la hipótesis H0H_{0} a favor de H1H_{1} en base a la evidencia observada.

Valor-P

Una alternativa a la región crítica es el valor p.

El valor p se define como la probabilidad de que el estadístico de prueba tome valores mayores al observado, es decir

pvalue=𝐏(T>Tobs) p_{value} = \textbf{P}(T> T_{obs})

Este es el mínimo nivel de significancia α\alpha para el cual es posible rechazar H0H_{0}.

Para un nivel de significancia α\alpha.

  • Si el valor-pαp \leq \alpha: Rechazamos H0H_0.
  • Si el valor-p>αp > \alpha: No rechazamos H0H_0.

Prueba de Hipótesis para la Media μ\mu

σ2\sigma^{2} Conocida

Sea X1,X2,,XnX_{1}, X_{2},\dots , X_{n} una muestra aleatoria de una población N(μ,σ2)N(\mu, \sigma^{2}) o, bajo las condiciones del Teorema del Límite Central (TLC), la variable aleatoria

Xμσ/nDZ\frac{\bar{X} - \mu}{\sigma/\sqrt{n}} \stackrel{D}{\longrightarrow} Z

converge en distribución a una normal estándar ZZ.

Contraste de Hipótesis

H0:μ=μ0vsH1:μμ0(bilateral)μ<μ0(unilateral a la izquierda)μ>μ0(unilateral a la derecha) \begin{aligned} H_0 : \mu = \mu_0 \quad \text{vs} \quad H_1: & \mu \neq \mu_0 & (\text{bilateral}) \\ & \mu < \mu_0& (\text{unilateral a la izquierda}) \\ & \mu > \mu_0& (\text{unilateral a la derecha}) \end{aligned} Basado en la distribución muestral de X\bar{X}

Z=Xμ0σ/nH0N(0,1). \begin{aligned} Z = \frac{\bar{X} - \mu_0}{\sigma/\sqrt{n}} \stackrel{H_0}{\sim} N(0, 1). \end{aligned}

Región crítica o de rechazo:

  • H1:μμ0C(x)={xn:|zobs|>z1α/2}H_1 : \mu \neq \mu_0 \Rightarrow C(x) = \{ x \in \mathbb{R}^n : |z_{\text{obs}}| > z_{1-\alpha/2} \}.

  • H1:μ<μ0C(x)={xn:zobs<zα}H_1 : \mu < \mu_0 \Rightarrow C(x) = \{ x \in \mathbb{R}^n : z_{\text{obs}} < z_{\alpha} \}.

  • H1:μ>μ0C(x)={xn:zobs>z1α}H_1 : \mu > \mu_0 \Rightarrow C(x) = \{ x \in \mathbb{R}^n : z_{\text{obs}} > z_{1-\alpha} \}.

Ejemplo:

Una fábrica de lápices afirma que la longitud promedio de sus lápices es de 17 centímetros, con una desviación estándar de 0.5 centímetros. Un grupo de estudiantes desea verificar esta afirmación seleccionando una muestra aleatoria de 30 lápices y midiendo su longitud. Después de realizar las mediciones, obtienen una media muestral de 16.8 centímetros. Se desea probar la hiótesis a un nivel α=0.03\alpha = 0.03 de significancia.

Se plantea el contraste

H0:μ=17vsH1:μ17(μμ0) H_{0}: \mu = 17 \quad vs \quad H_{1}: \mu \neq 17 \quad (\mu \neq \mu_{0})

  • Por TLC con n30n \geq 30

Z=Xμ0σ/nH0N(0,1). \begin{aligned} Z = \frac{\bar{X} - \mu_0}{\sigma/\sqrt{n}} \stackrel{H_0}{\sim} N(0, 1). \end{aligned}
Calculamos el estadístico de Prueba observado

n <- 30 # Tamaño de La muestra
var <- 0.5^{2} # Varianza Poblacional
mu_0 <- 17 # Media bajo Hipótesis Nula
x_barra <- 16.8 # Estadístico Observado
alpha <- 0.03 # Nivel de significancia

(Z <- (x_barra - mu_0)/sqrt(var/n))# Estadístico de Prueba
[1] -2.19089

Calculamos el percentil z1αz_{1 -\alpha}

(z_alpha <- qnorm(1 - (alpha/2))) # Percentil 1 - 0.03 de Una dist. Normal Estándar
[1] 2.17009

Verificamos el estadístico observado en la región crítica

RC:{|zobs|>z1α/2} RC:\left\{\left|z_{obs}\right| > z_{1-\alpha/2}\right\}

(abs(Z) > z_alpha)
[1] TRUE

Basandonos en el Pvalue=(|Z|>zobs)P_{value} = \mathbb{P}(|Z| > z_{obs})

# P(|Z|>z) = P(Z < -z) + P(Z > z) = 2*P(Z > z)
(pvalue <- 2*pnorm(Z,lower.tail = TRUE))
[1] 0.02845974
(pvalue < alpha)
[1] TRUE

Dado que el estadístico de Prueba pertenece a la Región de rechazo, con un nivel de significancia del 0.03, existe evidencia suficiente para decir que la longitud promedio de los lápices es diferente de 17cm.

Por otra parte con un valor p de 0.0284 < 0.03, se llega a la misma conclusión.

σ2\sigma^{2} Desconocida

Sea X1,X2,,XnX_{1}, X_{2},\dots , X_{n} una muestra aleatoria de una población N(μ,σ2)N(\mu, \sigma^{2}), con S2=1n1i=1n(xix)2S^{2} = \frac{1}{n-1}\sum_{i = 1}^{n}(x_{i}-\bar{x})^{2} el estimador de σ2\sigma^{2}

Basado en la distribución muestral de X\bar{X}

t=Xμ0S/nH0t(n1).\begin{aligned} t = \frac{\bar{X} - \mu_0}{S/\sqrt{n}} \stackrel{H_0}{\sim} t_{(n-1)}. \end{aligned}

Región crítica o de rechazo:

  • H1:μμ0RC={xn:|tobs|>t(n1,1α/2)}H_1 : \mu \neq \mu_0 \Rightarrow RC = \{ x \in \mathbb{R}^n : |t_{\text{obs}}| > t_{(n-1, 1-\alpha/2)} \}.

  • H1:μ<μ0RC={xn:tobs<t(n1,α)}H_1 : \mu < \mu_0 \Rightarrow RC = \{ x \in \mathbb{R}^n : t_{\text{obs}} < t_{(n-1, \alpha)} \}.

  • H1:μ>μ0RC={xn:tobs>t(n1,1α)}H_1 : \mu > \mu_0 \Rightarrow RC = \{ x \in \mathbb{R}^n : t_{\text{obs}} > t_{(n-1, 1-\alpha)} \}.

Observación: Si n es lo suficientemente grande, Xμ0s/nH0N(0,1)\frac{\bar{X} - \mu_0}{s/\sqrt{n}} \stackrel{H_0}{\sim} N(0,1) y el procedimiento es el mismo que para σ2\sigma^{2} conocido

Ejemplo:

Un estudio se propone examinar si la estatura promedio de los estudiantes de una universidad difiere de la cifra convencional de 175 cm. Se seleccionó una muestra aleatoria de 20 estudiantes matriculados en diferentes programas académicos. Cada estudiante tuvo su estatura registrada en centímetros. El objetivo es investigar si hay suficiente evidencia en los datos recolectados para respaldar la idea de que la estatura promedio de los estudiantes es mayor de 175 cm. Las mediciones de 20 estudiantes seleccionados aleatoriamente son:

168.5 171.8 168.9 166.8 167.9
172.3 169.6 170.5 168.3 170.4
170.1 173.2 172.0 170.7 168.6
165.7 167.4 169.2 171.2 172.1

Suponiendo que la estatura de los estudiantes proviene de una distribución N(μ,σ2)N(\mu, \sigma^{2}), se plantea el siguiente contraste.

H0:μ=175vsH1:μ>175(μ>μ0) H_{0}: \mu = 175 \quad vs \quad H_{1}: \mu > 175 \quad (\mu > \mu_{0})

Calculamos el estadístico de prueba Observado:

estatura <- c(168.5, 172.3, 170.1, 165.7, 171.8, 169.6, 173.2, 167.4,168.9, 170.5, 172.0, 169.2, 166.8, 168.3, 170.7, 171.2,167.9, 170.4, 168.6, 172.1) #DATOS

n <- length(estatura) # Tamaño de la muestra

mu_0 <- 175 # Media bajo la Hipótesis Nula
s <- sd(estatura) # Desviación Estándar de la muestra
x_barra <- mean(estatura) # Media Muestral

(t_obs <- (x_barra - mu_0)/(s/sqrt(n)))
[1] -11.61145

Calculamos el percentil t19,1αt_{19,1-\alpha}, estableciendo α=0.05\alpha = 0.05

alpha <- 0.05
(t_alpha <- qt(1 - alpha, df = n - 1))
[1] 1.729133

Verificamos el estadístico observado en la Región Crítica

RC:{tobs>t(n1,1α)}RC : \{t_{\text{obs}} > t_{(n-1, 1-\alpha)} \}

(t_obs > t_alpha)
[1] FALSE

Basándonos en el Pvalue=(t>tobs)P_{value}= \mathbb{P}(t > t_{obs})

(pvalue <- pt(t_obs, df = n - 1, lower.tail = FALSE))
[1] 1
pvalue < alpha
[1] FALSE

Ya que el valor observado no se encuentra en la Región Crítica, con un nivel de significancia de 0.05, podemos decir que no hay evidencia suficiente para decir que la estatura promedio de los estudiantes universitarios es mayor a 175cm.

Con un valor p de 1 > 0.05, la evidencia a favor de H0H_{0} es muy fuerte.

Otra alternativa para realizar este contraste de hipótesis en Rstudio es la función t.test

t.test(estatura, # Muestra
       mu = mu_0, # Media de la hipótesis nula
       alternative = "greater", # Dirección del contraste ("two.sided", "less", "greater")
       conf.level = 1 - alpha # Nivel de Confianza para el IC
       )

    One Sample t-test

data:  estatura
t = -11.611, df = 19, p-value = 1
alternative hypothesis: true mean is greater than 175
95 percent confidence interval:
 168.9797      Inf
sample estimates:
mean of x 
   169.76 

Prueba de Hipótesis para la Varianza σ2\sigma^{2}

Se tiene la muestra X1,,XnX_1, \ldots, X_n provieniente de una población normal, XN(μ,σ2)X \sim N(\mu, \sigma^2).

Se establece el contraste de hipótesis para σ2\sigma^{2}:

H0:σ2=σ02vsH1:σ2σ02(bilateral)σ2<σ02(unilateral a la izquierda)σ2>σ02(unilateral a la derecha) \begin{aligned} H_0 : \sigma^2 = \sigma^2_0 \quad \text{vs} \quad H_1: & \sigma^2 \neq \sigma^2_0 & (\text{bilateral}) \\ & \sigma^2 < \sigma^2_0& (\text{unilateral a la izquierda}) \\ & \sigma^2 > \sigma^2_0& (\text{unilateral a la derecha}) \end{aligned}

Con el estadístico de Prueba

Q=(n1)s2σ02H0χ(n1)2. Q = \frac{(n - 1) s^2}{\sigma_0^2} \stackrel{H_0}{\sim} \chi_{(n-1)}^2.

Región Crítica o de rechazo:

  • H1:σ2σ02H_1 : \sigma^2 \neq \sigma^2_0 RC={xn:qobs<χ(n1,α/2)2 o qobs>χ(n1,1α/2)2}\Rightarrow RC = \{ x \in \mathbb{R}^n : q_{\text{obs}} < \chi^2_{(n-1, \alpha/2)} \text{ o } q_{\text{obs}} > \chi^2_{(n-1, 1-\alpha/2)} \}
  • H1:σ2<σ02RC={xn:qobs<χ(n1,α)2}H_1 : \sigma^2 < \sigma^2_0 \Rightarrow RC = \{ x \in \mathbb{R}^n : q_{\text{obs}} < \chi^2_{(n-1, \alpha)} \}.
  • H1:σ2>σ02RC={xn:qobs>χ(n1,1α)2}H_1 : \sigma^2 > \sigma^2_0 \Rightarrow RC = \{ x \in \mathbb{R}^n : q_{\text{obs}} > \chi^2_{(n-1, 1-\alpha)} \}.

Ejemplo:

Se hicieron las siguientes observaciones sobre la tenacidad a la fractura de una placa base de acero inoxidable con 18% de níquel:

69.5 72.6 73.3 75.5 75.8 76.2 77.0 78.1 79.7 80.1 83.7
71.9 73.1 73.5 75.7 76.1 76.2 77.9 79.6 79.9 82.2 93.7

Se cree que la desviación estándar de la distribución de la dureza de la fractura es de 4 unidades, mientras que el operador percibe que esta variabilidad pudo haber aumentado. Realice el contraste con una significancia de 0.01

Suponiendo que las observaciones sobre la tenacidad a la fractura provienen de una distribución N(μ,σ2)N(\mu, \sigma^{2}). Se define el siguiente contraste

H0:σ2=42vsH1:σ2>42(σ2>σ02) H_0 : \sigma^2 = 4^{2}\quad \text{vs} \quad H_1: \sigma^2 > 4^{2} \quad (\sigma^2 > \sigma^2_0)

Calculamos el estadístico observado

datos <-  c(69.5, 71.9 ,72.6, 73.1 ,73.3, 73.5 ,
            75.5 ,75.7, 75.8 ,76.1, 76.2 ,76.2,
            77.0, 77.9 ,78.1 ,79.6, 79.7, 79.9,
            80.1, 82.2, 83.7 ,93.7)
n <- length(datos)

alpha <- 0.01

sig_0 <- 4^{2}

S_2 <- var(datos)

(qobs <- ((n - 1)*S_2)/sig_0)
[1] 33.29548

Calculamos el percentil χ(19,0.95)2\chi^{2}_{(19,0.95)}

(chiq <- qchisq(1 - alpha, df = n - 1))
[1] 38.93217

Verificamos en la Región Crítica

RC={xn:qobs>χ(n1,1α)2}RC = \{ x \in \mathbb{R}^n : q_{\text{obs}} > \chi^2_{(n-1, 1-\alpha)} \}

qobs > chiq
[1] FALSE

Basándonos en el Pvalue=(χ(19)>qobs)P_{value}= \mathbb{P}(\chi_{(19)} > q_{obs})

pchisq(q = qobs, df = n - 1, lower.tail = FALSE)
[1] 0.04304163

Con un valor p > 0.01, no hay evidencia suficiente para decir que la varianza de la dureza de la fractura es mayor que 424^{2} unidades cuadradas.

Prueba de Hipótesis para la proporción pp

Sea X1,X2,,XnX_{1}, X_{2},\dots , X_{n} una muestra aleatoria de una población con cierta característica de interés. Para un nn suficientemente grande

Z=p̂p0p0(1p0)nH0N(0,1) Z = \frac{\hat{p} - p_{0}}{\sqrt{\frac{p_{0}(1 - p_{0})}{n}}} \stackrel{H_0}{\sim} N(0 , 1)

Contraste de Hipótesis

H0:p=p0vsH1:pp0(bilateral)p<p0(unilateral a la izquierda)p>p0(unilateral a la derecha) \begin{aligned} H_0 : p = p_0 \quad \text{vs} \quad H_1: & p \neq p_0 & (\text{bilateral}) \\ & p < p_0& (\text{unilateral a la izquierda}) \\ & p > p_0& (\text{unilateral a la derecha}) \end{aligned}

Región crítica o de rechazo:

  • H1:pp0RC={xn:|zobs|>z1α/2}H_1 : p \neq p_0 \Rightarrow RC = \{ x \in \mathbb{R}^n : |z_{\text{obs}}| > z_{1-\alpha/2} \}.

  • H1:p<p0RC={xn:zobs<zα}H_1 : p < p_0 \Rightarrow RC = \{ x \in \mathbb{R}^n : z_{\text{obs}} < z_{\alpha} \}.

  • H1:p>p0RC={xn:zobs>z1α}H_1 : p > p_0 \Rightarrow RC = \{ x \in \mathbb{R}^n : z_{\text{obs}} > z_{1-\alpha} \}.

Ejemplo:

Se cree que la proporción de productos defectuosos en una línea de producción es del 10%, mientras que la gerencia sospecha que esta proporción podría ser mayor. Realice el contraste con una significancia de 0.05, utilizando una muestra de 500 productos, de los cuales 75 resultaron defectuosos.

Se tiene el siguiente contraste

H0:p=0.10vsH1:p>0.10(p>p0) H_0: p = 0.10 \quad \text{vs} \quad H_1: p > 0.10 \quad (p > p_0)

Calculamos el estadístico observado:

# Se establecen los datos y parámetros
exitos <- 75
total <- 500
alpha <- 0.05
prop_0 <- 0.10  # Proporción bajo la hipótesis nula

# Se calcula la proporción muestral
prop_muestral <- exitos / total

# Se calcula el estadístico de contraste (Z)
z_obs <- (prop_muestral - prop_0) / sqrt((prop_0 * (1 - prop_0) / total))

z_obs
[1] 3.72678

Calculamos el percentil para Z1αZ_{ 1 - \alpha}:

# Se calcula el percentil Z para el nivel de significancia dado
z_crit <- qnorm(1 - alpha)

z_crit
[1] 1.644854

Verificamos en la Región Crítica:

RC={x:zobs>zα} RC = \{ x \in \mathbb{R} : z_{\text{obs}} > z_{\alpha} \}

z_obs > z_crit
[1] TRUE

Basándonos en el valor p:

#Se calcula el valor p

p_value <- pnorm(z_obs, lower.tail = FALSE)
p_value
[1] 9.697081e-05

Basándonos en un valor p cercano a 0 < 0.05, rechazamos la hipótesis nula. Por lo tanto, hay evidencia suficiente para concluir que la proporción de productos defectuosos ha aumentado significativamente.

Prueba de Hipótesis para Dos Muestras

Estas pruebas son útiles para comparar diversos parámetros poblacionales entre dos grupos diferentes. Su importancia radica en su capacidad para determinar si existen diferencias significativas entre dos grupos en una población, lo cual ayuda a los investigadores a comprender mejor las relaciones entre variables y a tomar decisiones informadas basadas en evidencia estadística.

Diferencia de Proporciones p1p2p_{1} - p_{2}

Considerando X1,X2,,XnX_{1}, X_{2}, \dots, X_{n} y Y1,Y2,,YmY_{1}, Y_{2}, \dots, Y_{m} dos muestras independientes, tal que XBer(p1)X\sim Ber(p_{1}) y YBer(p2)Y\sim Ber(p_{2}).

Si n y m son grandes entonces por TLC

p1̂N(p1,p1(1p1)n)yp2̂N(p2,p2(1p2)n) \hat{p_{1}} \sim N\left(p_{1}, \frac{p_{1}(1 - p_{1})}{n}\right) \quad y \quad \hat{p_{2}} \sim N\left(p_{2}, \frac{p_{2}(1 - p_{2})}{n}\right)

Se tiene el siguiente contraste

H0:p1p2=0vsH1:p1p20(bilateral)p1p2<0(unilateral a la izquierda)p1p2>0(unilateral a la derecha) \begin{aligned} H_0 : p_{1} - p_{2} = 0 \quad \text{vs} \quad H_1: & p_{1} - p_{2} \neq 0 & (\text{bilateral}) \\ & p_{1} - p_{2} < 0& (\text{unilateral a la izquierda}) \\ & p_{1} - p_{2} > 0& (\text{unilateral a la derecha}) \end{aligned} Con el estadístico de Prueba

Z=p1̂p2̂p̂(1p̂)(1n+1m)H0N(0,1) Z = \frac{\hat{p_{1}} - \hat{p_{2}}}{\sqrt{\hat{p}(1-\hat{p})\left(\frac{1}{n} + \frac{1}{m}\right)}} \ \stackrel{H_0}{\sim} N(0, 1) Con p̂=np1̂+mp2̂n+m\hat{p} = \frac{n\hat{p_{1}} + m\hat{p_{2}}}{n+m}