Introducción

En esta sección, se proporciona una visión general de las pruebas de hipótesis, su propósito y su importancia en la estadística.

Elementos de una Prueba Estadística

Para entender los elementos de una prueba estadística, consideremos el siguiente problema práctico:

Ejemplo: Evaluación de una Afirmación Electoral

Supongamos que el candidato Jones afirma que ganará más del 50% de los votos en una elección urbana, basándose en su campaña y encuestas. Queremos determinar si hay suficiente evidencia para apoyar la afirmación de Jones o si deberíamos aceptar la hipótesis alternativa de que Jones no tiene más del 50% de apoyo.

Para abordar este problema, seguiremos una prueba estadística que incluye varios elementos esenciales:

Hipótesis Estadísticas

  1. Hipótesis Nula (H0):
    • Definición: La hipótesis nula es la afirmación que ponemos a prueba. Representa la suposición de que no hay efecto o diferencia significativa.
    • En nuestro ejemplo: La hipótesis nula es que la proporción de votos a favor de Jones es al menos 50%. Formalmente, esto se expresa como \(H_0: p = 0.5\).
  2. Hipótesis Alternativa (H1):
    • Definición: La hipótesis alternativa es la afirmación que se acepta si hay suficiente evidencia en contra de la hipótesis nula. Representa la teoría o suposición alternativa que queremos apoyar.
    • En nuestro ejemplo: La hipótesis alternativa es que la proporción de votos a favor de Jones es menor al 50%. Formalmente, esto se expresa como \(H_1: p < 0.5\).

Datos Muestrales

  • Definición: Los datos recogidos de la muestra que se utilizan para evaluar las hipótesis.
  • En nuestro ejemplo: Seleccionamos aleatoriamente una muestra de 15 votantes y contamos cuántos de ellos están a favor de Jones. Supongamos que observamos \(Y = 0\) (ninguno a favor de Jones).

Estadístico de Prueba

  • Definición: Una medida calculada a partir de los datos muestrales que se utiliza para decidir si se debe rechazar la hipótesis nula.
  • En nuestro ejemplo: Calculamos un estadístico que nos ayuda a determinar la probabilidad de observar el resultado obtenido bajo la hipótesis nula. Si \(Y = 0\), este estadístico nos indica qué tan inusual es este resultado si realmente la proporción de apoyo es 50%.

Valor-p

  • Definición: La probabilidad de obtener un resultado al menos tan extremo como el observado, bajo la hipótesis nula.
  • En nuestro ejemplo: Si el valor-p asociado a observar \(Y = 0\) es muy bajo, esto indica que es poco probable obtener tal resultado si la proporción real de votos a favor fuera 50%. Un valor-p bajo sugiere que debemos rechazar la hipótesis nula en favor de la hipótesis alternativa.

Nivel de Significancia (α)

  • Definición: El umbral predefinido para decidir si el valor-p es suficientemente bajo como para rechazar la hipótesis nula.
  • En nuestro ejemplo: Un nivel de significancia común es \(\alpha = 0.05\). Si el valor-p es menor que 0.05, rechazamos la hipótesis nula, sugiriendo que los datos apoyan la hipótesis alternativa.

Errores en Pruebas de Hipótesis

  1. Error Tipo I (α):
    • Definición: Se comete un error tipo I si se rechaza la hipótesis nula cuando en realidad es verdadera. La probabilidad de cometer un error tipo I está denotada por \(\alpha\). Este valor se conoce como el nivel de significancia de la prueba.
    • Ejemplo: En nuestro problema, si rechazamos la hipótesis nula \(H_0: p = 0.5\) cuando en realidad la proporción de votos a favor de Jones es realmente 50%, habremos cometido un error tipo I.
  2. Error Tipo II (β):
    • Definición: Se comete un error tipo II si se acepta la hipótesis nula cuando la hipótesis alternativa es verdadera. La probabilidad de cometer un error tipo II está denotada por \(\beta\).
    • Ejemplo: En nuestro problema, si no rechazamos la hipótesis nula \(H_0: p = 0.5\) cuando en realidad la proporción de votos a favor de Jones es menor al 50%, habremos cometido un error tipo II.

Gráfico de Errores Tipo I y II

A continuación, se presenta un gráfico que ilustra los conceptos de error tipo I y error tipo II en el contexto de una prueba estadística:

# Cargar librerías necesarias
library(ggplot2)
library(plotly)
## 
## Attaching package: 'plotly'
## The following object is masked from 'package:ggplot2':
## 
##     last_plot
## The following object is masked from 'package:stats':
## 
##     filter
## The following object is masked from 'package:graphics':
## 
##     layout
# Parámetros de la prueba
alpha <- 0.05  # Nivel de significancia
beta <- 0.2    # Probabilidad de error tipo II
mu0 <- 0       # Media bajo H0
mu1 <- -1.5    # Media bajo H1
sigma <- 1     # Desviación estándar

# Crear un rango de valores para la distribución normal
x <- seq(mu0 - 4*sigma, mu0 + 4*sigma, length.out = 1000)

# Calcular la densidad de la distribución normal bajo H0 y H1
y0 <- dnorm(x, mean = mu0, sd = sigma)
y1 <- dnorm(x, mean = mu1, sd = sigma)

# Crear un data frame para ggplot
data <- data.frame(x = x, y0 = y0, y1 = y1)
threshold <- qnorm(1 - alpha, mean = mu0, sd = sigma)  # Umbral de rechazo

# Gráfico
g<-ggplot(data) +
  # Densidad bajo H0
  geom_line(aes(x = x, y = y0), color = "blue", size = 1) +
  # Densidad bajo H1
  geom_line(aes(x = x, y = y1), color = "red", size = 1) +
  # Área de rechazo tipo I
  geom_ribbon(data = subset(data, x <= threshold), aes(x = x, ymin = 0, ymax = y0), fill = "blue", alpha = 0.3) +
  # Área de aceptación tipo II
  geom_ribbon(data = subset(data, x >= threshold), aes(x = x, ymin = 0, ymax = y1), fill = "red", alpha = 0.3) +
  # Línea del umbral de rechazo
  geom_vline(xintercept = threshold, linetype = "dashed", color = "black") +
  labs(
    title = "Errores Tipo I y Tipo II en una Prueba Estadística",
    x = "Valor del Estadístico",
    y = "Densidad",
    caption = "Área azul: Error Tipo I (Rechazo H0 cuando H0 es verdadera)\nÁrea roja: Error Tipo II (No rechazo H0 cuando H1 es verdadera)"
  ) +
  theme_minimal() +
  theme(
    plot.title = element_text(hjust = 0.5),
    plot.caption = element_text(hjust = 0.5, size = 8)
  ) +
  coord_cartesian(xlim = c(mu0 - 4*sigma, mu0 + 4*sigma))
## Warning: Using `size` aesthetic for lines was deprecated in ggplot2 3.4.0.
## ℹ Please use `linewidth` instead.
## This warning is displayed once every 8 hours.
## Call `lifecycle::last_lifecycle_warnings()` to see where this warning was
## generated.
ggplotly(g)
  • Área de Rechazo (Error Tipo I): Representa la región donde rechazamos la hipótesis nula \(H_0\) cuando esta es verdadera.
  • Área de No Rechazo (Error Tipo II): Representa la región donde no rechazamos la hipótesis nula cuando la hipótesis alternativa \(H_1\) es verdadera.

Resumen del Ejemplo:

Si en la muestra de 15 votantes, observamos que \(Y = 0\) (ninguno a favor de Jones), y el valor-p asociado a este resultado es bajo, podemos rechazar la hipótesis nula \(H_0: p = 0.5\) en favor de la hipótesis alternativa \(H_1: p < 0.5\). Esto sugiere que es más probable que la proporción real de apoyo a Jones sea menor al 50%.

Este proceso ilustra cómo se utilizan los datos muestrales para decidir entre la hipótesis nula y la hipótesis alternativa en cualquier prueba estadística, y cómo se pueden cometer errores tipo I y tipo II al tomar decisiones basadas en los resultados de la prueba.

Problema

Un investigador afirma que una dosis de droga inducirá el sueño en el 80% de las personas con insomnio. Para evaluar esta afirmación, administramos la dosis a 20 personas con insomnio y observamos \(Y\), el número de individuos a quienes la dosis induce el sueño. Deseamos probar la siguiente hipótesis:

  • Hipótesis Nula (\(H_0\)): \(p = 0.8\)
  • Hipótesis Alternativa (\(H_a\)): \(p < 0.8\)

Utilizamos una región de rechazo definida como \(\{ Y \leq 12 \}\).

a) ¿Qué es un error tipo I?

Un error tipo I ocurre cuando rechazamos la hipótesis nula \(H_0\) cuando en realidad es verdadera. En este caso, sería rechazar la afirmación del investigador de que el 80% de las personas experimentan sueño, cuando en realidad la proporción es realmente 0.8.

b) Calcular \(\alpha\)

Determine el nivel de significancia \(\alpha\), que es la probabilidad de cometer un error tipo I.

Utilizamos la distribución binomial para calcular \(\alpha\) porque la variable de interés \(Y\) se distribuye binomialmente bajo la hipótesis nula. La distribución binomial nos permite calcular la probabilidad acumulada de obtener un número de éxitos en una muestra bajo ciertas condiciones, lo que es crucial para determinar el nivel de significancia en nuestra prueba de hipótesis.

Para encontrar el valor de \(\alpha\) (nivel de significancia), necesitamos calcular la probabilidad de rechazar \(H_0\) cuando \(H_0\) es verdadera. Dado que la región de rechazo es \(\{ Y \leq 12 \}\) y \(Y\) sigue una distribución binomial \(Y \sim \text{Binomial}(n = 20, p = 0.8)\), \(\alpha\) es:

\[ \alpha = P(Y \leq 12 \mid p = 0.8) \]

# Parámetros
n <- 20
p <- 0.8

# Calcular el valor de alfa
alpha <- pbinom(12, size = n, prob = p)
alpha
## [1] 0.03214266

c) ¿Qué es un error tipo II?

Un error tipo II ocurre cuando no rechazamos la hipótesis nula \(H_0\) cuando en realidad la hipótesis alternativa \(H_a\) es verdadera. En este caso, sería no rechazar la afirmación del investigador cuando la proporción real de personas que experimentan sueño es menor que 0.8.

d) Calcular \(\beta\) cuando \(p = 0.6\)

Calcule la probabilidad de cometer un error tipo II, \(\beta\), cuando la proporción real es \(p = 0.6\).

Calcular \(\beta\) cuando \(p = 0.6\).

Para encontrar \(\beta\) cuando \(p = 0.6\), necesitamos calcular la probabilidad de no rechazar \(H_0\) cuando \(H_a\) es verdadera. En otras palabras, \(\beta\) es:

\[ \beta = P(Y > 12 \mid p = 0.6) \]

# Parámetros para el error tipo II
p_alt <- 0.6

# Calcular el valor de beta
beta <- 1 - pbinom(12, size = n, prob = p_alt)
beta
## [1] 0.4158929

e) Calcular \(\beta\) cuando \(p = 0.4\)

Calcule la probabilidad de cometer un error tipo II, \(\beta\), cuando la proporción real es \(p = 0.4\).

# Parámetros para el error tipo II
p_alt2 <- 0.4

# Calcular el valor de beta
beta2 <- 1 - pbinom(12, size = n, prob = p_alt2)
beta2
## [1] 0.02102893

Resultados

  • Error tipo I: Es el rechazo de \(H_0\) cuando \(H_0\) es verdadera. En este problema, el error tipo I ocurre si rechazamos la afirmación del investigador de que el 80% de las personas con insomnio inducen sueño cuando en realidad el 80% es correcto.

  • \(\alpha\): La probabilidad de cometer un error tipo I. Este valor es la probabilidad de observar \(Y \leq 12\) dado que la proporción real de éxito es \(p = 0.8\).

  • Error tipo II: Es la no-rechazo de \(H_0\) cuando \(H_a\) es verdadera. En este caso, el error tipo II ocurre si no rechazamos la afirmación del investigador cuando en realidad la proporción real de éxito es menor que 0.8.

  • \(\beta\) para \(p = 0.6\): La probabilidad de cometer un error tipo II cuando la proporción real es 0.6. Este valor indica la probabilidad de no rechazar \(H_0\) cuando en realidad el 60% de las personas inducen sueño.

  • \(\beta\) para \(p = 0.4\): La probabilidad de cometer un error tipo II cuando la proporción real es 0.4. Este valor indica la probabilidad de no rechazar \(H_0\) cuando en realidad solo el 40% de las personas inducen sueño.

Pruebas Comunes con Muestras Grandes

Suponga que deseamos probar un conjunto de hipótesis respecto a un parámetro \(\mu\) con base en una muestra aleatoria \(Y_1, Y_2, \ldots, Y_n\). En esta sección, desarrollaremos procedimientos de prueba de hipótesis que están basados en un estimador \(\hat{\mu}\) que tiene una distribución muestral normal (aproximadamente) con media \(\mu\) y error estándar \(\hat{\sigma}\). Los estimadores de muestra grande, como \(\bar{y}\) y \(\hat{p}\), satisfacen estos requisitos. También se satisfacen para los estimadores empleados en la comparación de dos medias poblacionales (\(\mu_1 - \mu_2\)) y en la comparación de dos parámetros binomiales (\(p_1 - p_2\)).

Si \(\mu_0\) es un valor específico de \(\mu\), podemos probar la hipótesis nula \(H_0: \mu = \mu_0\) contra la hipótesis alternativa \(H_a: \mu > \mu_0\). La Figura ilustra las distribuciones muestrales de \(\hat{\mu}\) para varios valores de \(\mu\). Si \(\hat{\mu}\) es cercana a \(\mu_0\), parece razonable aceptar \(H_0\). Sin embargo, si en realidad \(\mu > \mu_0\), es más probable que \(\hat{\mu}\) sea mayor. En consecuencia, valores grandes de \(\hat{\mu}\) (valores mayores a \(\mu_0\) en una cantidad apropiada) favorecen el rechazo de \(H_0: \mu = \mu_0\) y una aceptación de \(H_a: \mu > \mu_0\).

# Cargar librerías
library(ggplot2)
library(plotly)
# Parámetros
mu_0 <- 10  # Valor específico de mu bajo H0
sigma <- 2  # Desviación estándar de la muestra
n <- 30     # Tamaño de la muestra

# Generar distribuciones muestrales de \hat{mu} para diferentes valores de mu
mu_values <- c(mu_0, 11, 12)  # Valores de mu (mu0 y dos valores mayores)
colors <- c("H0: mu = mu_0", "mu = 11", "mu = 12")  # Etiquetas

# Función para simular \hat{mu}
simulate_mu_hat <- function(mu, n, sigma) {
  rnorm(10000, mean = mu, sd = sigma / sqrt(n))
}

# Simular \hat{mu} para diferentes valores de mu
mu_hats <- lapply(mu_values, simulate_mu_hat, n = n, sigma = sigma)

# Crear un dataframe para el gráfico
data <- data.frame(mu_hat = c(mu_hats[[1]], mu_hats[[2]], mu_hats[[3]]),
                   group = factor(rep(colors, each = 10000)))

# Definir el valor crítico para el rechazo de H0 (supongamos un nivel de significancia del 5%)
alpha <- 0.05
critical_value <- qnorm(1 - alpha, mean = mu_0, sd = sigma / sqrt(n))

# Crear el gráfico
g<-ggplot(data, aes(x = mu_hat, fill = group)) +
  geom_density(alpha = 0.5) +
  geom_vline(xintercept = mu_0, color = "blue", linetype = "dashed", size = 1.2) +  # Línea en mu_0
  geom_vline(xintercept = critical_value, color = "red", linetype = "dashed", size = 1.2) +  # Valor crítico
  labs(title = expression(paste("Distribuciones muestrales de ", hat(mu), " para diferentes valores de ", mu)),
       x = expression(hat(mu)),
       y = "Densidad",
       fill = "Valores de mu") +
  theme_minimal() +
  annotate("text", x = critical_value + 0.5, y = 0.05, label = "Rechazo de H0", color = "red", angle = 90, vjust = 1) +
  annotate("text", x = mu_0 - 0.5, y = 0.05, label = "Aceptación de H0", color = "blue", angle = 90, vjust = 1)

g

Por lo tanto, las hipótesis nula y alternativa, el estadístico de prueba y la región de rechazo son como sigue:

  • Hipótesis nula: \(H_0: \mu = \mu_0\)
  • Hipótesis alternativa: \(H_a: \mu > \mu_0\)
  • Estadístico de prueba: \(\hat{\mu}\)
  • Región de rechazo: \(\text{RR} = \{\hat{\mu} > k\}\) para alguna selección de \(k\).

El valor real de \(k\) en la región de rechazo \(\text{RR}\) se determina al fijar la probabilidad \(\alpha\) de error tipo I (el nivel de la prueba) y escoger \(k\) de conformidad. Si \(H_0\) es verdadera, \(\hat{\mu}\) tiene una distribución aproximadamente normal con media \(\mu_0\) y error estándar \(\hat{\sigma}\). Por tanto, para una prueba de nivel \(\alpha\), \(k\) se selecciona de la siguiente manera:

\[ k = \mu_0 + z_\alpha \hat{\sigma} \]

donde \(z_\alpha\) es el valor crítico de la distribución normal estándar tal que \(P(Z > z_\alpha) = \alpha\).

Si \(Z = (\hat{\mu} - \mu_0) / \hat{\sigma}\) se usa como estadístico de prueba, la región de rechazo también se puede escribir como \(\text{RR} = \{Z > z_\alpha\}\). Observe que \(Z\) mide el número de errores estándar entre el estimador para \(\mu\) y \(\mu_0\), el valor de \(\mu\) especificado en \(H_0\). Por lo tanto, una forma equivalente de la prueba de hipótesis, con nivel \(\alpha\), es la siguiente:

  • Hipótesis nula: \(H_0: \mu = \mu_0\)
  • Hipótesis alternativa: \(H_a: \mu > \mu_0\)
  • Estadístico de prueba: \(Z = \frac{\hat{\mu} - \mu_0}{\hat{\sigma}}\)
  • Región de rechazo: \(\{Z > z_\alpha\}\)

\(H_0\) es rechazada si \(Z\) cae suficientemente alejada en la cola superior de la distribución normal estándar. La hipótesis alternativa \(H_a: \mu > \mu_0\) se denomina alternativa de cola superior y \(\text{RR} = \{Z > z_\alpha\}\) se conoce como región de rechazo de cola superior.

Observe que la fórmula para \(Z\) es simplemente:

\[ Z = \frac{\hat{\mu} - \mu_0}{\hat{\sigma}} \]

Gráfico de Prueba de Hipótesis con Muestras Grandes

El siguiente gráfico ilustra la distribución del estadístico de prueba \(Z\) bajo la hipótesis nula \(H_0\). En este gráfico:

  • La curva azul representa la distribución normal del estadístico \(Z\) bajo \(H_0\) con media \(\mu_0\) y desviación estándar \(\hat{\sigma}\).
  • La región sombreada a la derecha de \(z_\alpha\) representa la región de rechazo para una prueba de cola superior. Si el valor calculado de \(Z\) cae en esta región, se rechaza la hipótesis nula en favor de la hipótesis alternativa.
# Cargar librerías necesarias
library(ggplot2)
library(dplyr)
## 
## Attaching package: 'dplyr'
## The following objects are masked from 'package:stats':
## 
##     filter, lag
## The following objects are masked from 'package:base':
## 
##     intersect, setdiff, setequal, union
library(plotly)
# Parámetros de la distribución normal
mu0 <- 0
sigma <- 1
alpha <- 0.05
z_alpha <- qnorm(1 - alpha)

# Crear datos para la distribución normal
x <- seq(mu0 - 4 * sigma, mu0 + 4 * sigma, length.out = 1000)
y <- dnorm(x, mean = mu0, sd = sigma)

# Crear el gráfico
g<-ggplot() +
  geom_line(aes(x = x, y = y), color = "blue") +
  geom_area(aes(x = x[x > z_alpha], y = y[x > z_alpha]), fill = "red", alpha = 0.3) +
  geom_vline(xintercept = z_alpha, color = "black", linetype = "dashed") +
  labs(title = "Distribución del Estadístico de Prueba Z",
       x = "Z",
       y = "Densidad") +
  theme_minimal() +
  annotate("text", x = z_alpha + 1, y = max(y) * 0.8, label = paste0("z_alpha = ", round(z_alpha, 2)), color = "black") +
  annotate("text", x = z_alpha + 2, y = max(y) * 0.6, label = "Región de Rechazo", color = "red")
ggplotly(g)

Este código en R genera un gráfico que muestra la distribución normal del estadístico \(Z\) con la región de rechazo en una prueba de cola superior. Asegúrate de ejecutar este código en tu entorno R para obtener el gráfico y luego intégralo en tu documento Markdown.

Explicación del Gráfico

  • Curva Azul: Muestra la distribución normal del estadístico de prueba \(Z\) bajo la hipótesis nula \(H_0\).
  • Línea Negra (Discontinua): Marca el valor crítico \(z_\alpha\) que define la frontera entre la región de aceptación y la región de rechazo.
  • Región Sombreada (Roja): Representa la región de rechazo. Si el valor calculado de \(Z\) cae en esta área, se rechaza la hipótesis nula en favor de la alternativa.

Este gráfico ayuda a visualizar cómo se utiliza el estadístico de prueba y cómo se determina si el valor observado cae dentro de la región de rechazo, permitiendo la decisión sobre la hipótesis nula.

Problema de ventas

El vicepresidente de ventas de una gran empresa afirma que los vendedores están promediando no más de 15 contactos de venta por semana. (Le gustaría aumentar esta cantidad.) Como prueba de su afirmación, aleatoriamente se seleccionan \(n = 36\) vendedores y se registra el número de contactos hechos por cada uno para una sola semana seleccionada al azar. La media y varianza de las 36 mediciones fueron 17 y 9, respectivamente. ¿La evidencia contradice lo dicho por el vicepresidente? Use una prueba con nivel \(\alpha = 0.05\).

Solución

Estamos interesados en la hipótesis de investigación de que la afirmación del vicepresidente es incorrecta. Esto se puede escribir formalmente como \(H_a : \mu > 15\), donde \(\mu\) es el número medio de contactos de ventas por semana. Por tanto, estamos interesados en probar:

  • \(H_0 : \mu = 15\) contra \(H_a : \mu > 15\).

Sabemos que para \(n\) lo suficientemente grande, la media muestral \(\bar{Y}\) es un estimador puntual de \(\mu\) que está distribuido normalmente en forma aproximada con \(\bar{Y}\) y \(s_Y = \frac{s}{\sqrt{n}}\). En consecuencia, nuestro estadístico de prueba es:

\[ Z = \frac{\bar{Y} - \mu_0}{s_Y} = \frac{\bar{Y} - \mu_0}{\frac{s}{\sqrt{n}}} \]

La región de rechazo, con \(\alpha = 0.05\), está dada por \(\{z > z_{0.05} = 1.645\}\) (véase Tabla 4, Apéndice 3). La varianza poblacional \(\sigma^2\) no se conoce, pero puede estimarse de manera muy precisa (porque \(n = 36\) es lo suficientemente grande) con la varianza muestral \(s^2 = 9\).

En consecuencia, el valor observado del estadístico de prueba es aproximadamente:

\[ z = \frac{\bar{Y} - \mu_0}{\frac{s}{\sqrt{n}}} = \frac{17 - 15}{\frac{3}{\sqrt{36}}} = \frac{2}{0.5} = 4 \]

Debido a que el valor observado de \(Z\) se encuentra en la región de rechazo (porque \(z = 4\) excede a \(z_{0.05} = 1.645\)), rechazamos \(H_0 : \mu = 15\). Entonces, al nivel de significancia \(\alpha = 0.05\), la evidencia es suficiente para indicar que la afirmación del vicepresidente es incorrecta y que el número promedio de contactos de ventas por semana es mayor que 15.

# Cargar librerías
library(ggplot2)
library(plotly)
# Parámetros para el gráfico
alpha <- 0.05
z_alpha <- qnorm(1 - alpha) # Valor crítico z para un nivel de significancia alpha
mean <- 0
sd <- 1

# Crear datos para la distribución normal estándar
x <- seq(-4, 4, length.out = 1000)
y <- dnorm(x, mean, sd)

# Crear el gráfico
g<-ggplot(data = NULL, aes(x = x)) +
  geom_line(aes(y = y), color = "blue") +
  geom_area(data = subset(data.frame(x, y), x > z_alpha), aes(x = x, y = y), fill = "red", alpha = 0.3) +
  geom_vline(xintercept = z_alpha, linetype = "dashed", color = "black") +
  labs(title = "Distribución Normal del Estadístico de Prueba Z",
       x = "Valor de Z",
       y = "Densidad") +
  theme_minimal() +
  annotate("text", x = z_alpha + 1, y = 0.15, label = paste("z[α] =", round(z_alpha, 2)), color = "black") +
  annotate("text", x = z_alpha + 1, y = 0.1, label = "Región de Rechazo", color = "red")

ggplotly(g)

Explicación del Gráfico

  • Curva Azul: Muestra la distribución normal del estadístico de prueba \(Z\) bajo la hipótesis nula \(H_0\).

  • Línea Negra (Discontinua): Marca el valor crítico \(z_\alpha\) que define la frontera entre la región de aceptación y la región de rechazo.

  • Región Sombreada (Roja): Representa la región de rechazo. Si el valor calculado de \(Z\) cae en esta área, se rechaza la hipótesis nula en favor de la alternativa.

Este gráfico ayuda a visualizar cómo se utiliza el estadístico de prueba y cómo se determina si el valor observado cae dentro de la región de rechazo, permitiendo la decisión sobre la hipótesis nula.

Para estructurar la solución en Markdown, vamos a seguir estos pasos:

  1. Planteamiento del problema.
  2. Formulación de hipótesis.
  3. Cálculo del estadístico de prueba.
  4. Comparación con el valor crítico y conclusión.
  5. Explicación del gráfico (si decides incluir uno).

Comparación de Tiempos de Reacción entre Hombres y Mujeres

Planteamiento del Problema

Se realizó un estudio psicológico para comparar los tiempos de reacción de hombres y mujeres a un estímulo. Se emplearon muestras aleatorias independientes de 50 hombres y 50 mujeres. Los datos obtenidos se muestran en la Tabla 10.2. Queremos determinar si hay evidencia para sugerir una diferencia entre los tiempos medios de reacción verdaderos para hombres y mujeres, utilizando un nivel de significancia \(\alpha = 0.05\).

Tabla : Datos para el problema

Grupo Tamaño de muestra (\(n\)) Media (\(\bar{Y}\)) Varianza (\(s^2\))
Hombres 50 3.6 segundos 0.18
Mujeres 50 3.8 segundos 0.14

Hipótesis

  • Hipótesis nula (\(H_0\)): \(\mu_1 - \mu_2 = 0\), es decir, no hay diferencia en los tiempos medios de reacción entre hombres y mujeres.
  • Hipótesis alternativa (\(H_a\)): \(\mu_1 - \mu_2 \neq 0\), es decir, hay una diferencia en los tiempos medios de reacción entre hombres y mujeres.

Cálculo del Estadístico de Prueba

Para comparar las medias de dos muestras independientes, usamos el estadístico de prueba \(Z\):

\[ Z = \frac{(\bar{Y}_1 - \bar{Y}_2) - D_0}{\sqrt{\frac{s_1^2}{n_1} + \frac{s_2^2}{n_2}}} \]

donde: - \(\bar{Y}_1 = 3.6\) segundos - \(\bar{Y}_2 = 3.8\) segundos - \(s_1^2 = 0.18\) - \(s_2^2 = 0.14\) - \(n_1 = 50\) - \(n_2 = 50\) - \(D_0 = 0\)

Sustituyendo estos valores en la fórmula, obtenemos:

\[ Z = \frac{3.6 - 3.8 - 0}{\sqrt{\frac{0.18}{50} + \frac{0.14}{50}}} \approx \frac{-0.2}{\sqrt{0.0036 + 0.0028}} = \frac{-0.2}{\sqrt{0.0064}} = \frac{-0.2}{0.08} = -2.5 \]

Regla de Decisión

Para un nivel de significancia \(\alpha = 0.05\) en una prueba bilateral, el valor crítico es \(z_{0.025} = \pm 1.96\). Rechazamos \(H_0\) si el valor absoluto del estadístico de prueba es mayor que 1.96.

# Cargar las librerías necesarias
library(ggplot2)
library(plotly)
# Definir los parámetros
alpha <- 0.05
z_alpha <- qnorm(1 - alpha / 2) # Valor crítico para una prueba de dos colas
z_observed <- -2.5 # Valor del estadístico de prueba

# Crear datos para la distribución normal
x <- seq(-4, 4, length = 100)
y <- dnorm(x)

# Crear el gráfico
g<-ggplot(data = data.frame(x, y), aes(x = x, y = y)) +
  geom_line(color = "blue") +
  geom_area(data = data.frame(x = x[x < -z_alpha], y = y[x < -z_alpha]),
            aes(x = x, y = y), fill = "red", alpha = 0.5) +
  geom_vline(xintercept = c(-z_alpha, z_alpha), linetype = "dashed", color = "black") +
  geom_vline(xintercept = z_observed, linetype = "dotted", color = "green") +
  labs(title = "Distribución Normal del Estadístico de Prueba",
       x = "Valor del Estadístico Z",
       y = "Densidad") +
  theme_minimal() +
  annotate("text", x = -z_alpha - 1, y = 0.2, label = expression(z[alpha]), color = "black") +
  annotate("text", x = z_alpha + 1, y = 0.2, label = expression(z[alpha]), color = "black") +
  annotate("text", x = z_observed, y = 0.3, label = expression(z[obs]), color = "green")

ggplotly(g)

Explicación del Gráfico

  • Curva Azul: Muestra la distribución normal del estadístico de prueba \(Z\) bajo la hipótesis nula \(H_0\).
  • Líneas Negras (Discontinuas): Marcan los valores críticos \(z_{\alpha/2}\) que definen la frontera entre la región de aceptación y la región de rechazo.
  • Región Sombreada (Roja): Representa la región de rechazo. Si el valor calculado de \(Z\) cae en esta área, se rechaza la hipótesis nula en favor de la alternativa.
  • Línea Verde (Punteada): Representa el valor observado del estadístico de prueba \(Z_{obs}\).

Este gráfico ayuda a visualizar cómo se utiliza el estadístico de prueba y cómo se determina si el valor observado cae dentro de la región de rechazo, permitiendo la decisión sobre la hipótesis nula.

Conclusión

El valor calculado del estadístico de prueba es \(Z = -2.5\), que es menor que \(-1.96\). Por lo tanto, cae en la región de rechazo. En consecuencia, al nivel de significancia \(\alpha = 0.05\), concluimos que existe evidencia suficiente para afirmar que los tiempos medios de reacción difieren para hombres y mujeres.

Cálculo de las Probabilidades del Error Tipo II y Determinación del Tamaño Muestral para la Prueba Z

El cálculo de \(\beta\) (error tipo II) es fundamental para evaluar el rendimiento de una prueba estadística. Para la prueba Z, calcular \(\beta\) es relativamente sencillo. Esta prueba se utiliza para comparar una media muestral con una media hipotética bajo la hipótesis nula \(H_0\).

Para la prueba \(H_0: \mu = \mu_0\) contra \(H_a: \mu > \mu_0\), donde \(\mu_0\) es el valor hipotético de la media bajo la hipótesis nula y \(\mu_a\) es el valor alternativo de la media que el investigador sospecha, podemos calcular la probabilidad de cometer un error tipo II (\(\beta\)) para un valor específico de \(\mu\) en \(H_a\).

Dado que la región de rechazo para esta prueba es:

\[ \text{RR} = \{ \hat{\mu} : \hat{\mu} > k \} \]

donde \(k\) es el valor crítico que define la frontera entre la región de aceptación y la región de rechazo, la probabilidad de error tipo II \(\beta\) se define como:

\[ \beta = P(\hat{\mu} \text{ no está en RR cuando } H_a \text{ es verdadera}) = P(\hat{\mu} \leq k \text{ cuando } \mu = \mu_a) \]

\[ = P \left( \frac{\hat{\mu} - \mu_a}{s_{\hat{\mu}}} \leq \frac{k - \mu_a}{s_{\hat{\mu}}} \text{ cuando } \mu = \mu_a \right). \]

Donde \(\hat{\mu}\) es la media muestral, \(s_{\hat{\mu}}\) es el error estándar de \(\hat{\mu}\), y \(k\) es el valor crítico determinado por el nivel de significancia \(\alpha\).

Si \(\mu_a\) es el verdadero valor de \(\mu\), entonces \(\frac{\hat{\mu} - \mu_a}{s_{\hat{\mu}}}\) sigue aproximadamente una distribución normal estándar. Por lo tanto, \(\beta\) se puede calcular como el área bajo la curva normal estándar hasta \(\frac{k - \mu_a}{s_{\hat{\mu}}}\).

El tamaño de \(\beta\) está influenciado por la distancia entre \(\mu_a\) y \(\mu_0\). Si \(\mu_a\) está cerca de \(\mu_0\), el valor verdadero de \(\mu\) es difícil de detectar, lo que lleva a una mayor probabilidad de aceptar \(H_0\) cuando \(H_a\) es verdadera. Si \(\mu_a\) está más alejado de \(\mu_0\), la diferencia es más fácil de detectar y \(\beta\) es menor.

Además, para un nivel de significancia \(\alpha\) fijo, \(\beta\) se puede reducir aumentando el tamaño de la muestra \(n\). Un mayor tamaño muestral proporciona estimaciones más precisas de \(\mu\) y reduce la probabilidad de cometer un error tipo II.

Problema de Error Tipo II

Suponga que el vicepresidente desea detectar una diferencia en el número medio de llamadas por semana. Es decir, desea probar la hipótesis \(H_0: \mu = 15\) contra \(H_a: \mu = 16\). Con la información proporcionada, calcule la probabilidad de cometer un error tipo II (\(\beta\)) para esta prueba.

Información

Para esta prueba, los datos disponibles son: - Tamaño de la muestra, \(n = 36\) - Media muestral, \(\bar{Y} = 17\) - Varianza muestral, \(s^2 = 9\)

El error estándar de la media muestral es:

\[ s_{\hat{\mu}} = \frac{s}{\sqrt{n}} = \frac{\sqrt{9}}{\sqrt{36}} = \frac{3}{6} = 0.5 \]

Región de Rechazo

La región de rechazo para una prueba con nivel de significancia \(\alpha = 0.05\) está dada por:

\[ z = \frac{\bar{Y} - \mu_0}{s / \sqrt{n}} > 1.645 \]

Equivalente a:

\[ \bar{Y} - \mu_0 > 1.645 \cdot \frac{s}{\sqrt{n}} \]

Sustituyendo \(\mu_0 = 15\), \(s = \sqrt{9} = 3\), y \(n = 36\):

\[ \bar{Y} > 15 + 1.645 \cdot \frac{3}{\sqrt{36}} \]

\[ \bar{Y} > 15 + 1.645 \cdot 0.5 \]

\[ \bar{Y} > 15 + 0.8225 \]

\[ \bar{Y} > 15.8225 \]

Por lo tanto, la región de rechazo es \(\bar{Y} > 15.8225\).

Cálculo de \(\beta\)

Para calcular \(\beta\), necesitamos encontrar la probabilidad de no rechazar \(H_0\) cuando \(H_a\) es verdadera, es decir, cuando \(\mu = 16\). Esto corresponde a la probabilidad de que la media muestral sea menor o igual a 15.8225 cuando la verdadera media es 16.

El valor de \(\bar{Y}\) cuando \(\mu = 16\) sigue una distribución normal con media \(\mu_a = 16\) y error estándar \(s_{\hat{\mu}} = 0.5\). Queremos calcular:

\[ \beta = P(\bar{Y} \leq 15.8225 \text{ cuando } \mu = 16) \]

Esto se puede expresar como:

\[ \beta = P \left( \frac{\bar{Y} - \mu_a}{s_{\hat{\mu}}} \leq \frac{15.8225 - 16}{0.5} \right) \]

Sustituyendo los valores:

\[ \frac{15.8225 - 16}{0.5} = \frac{-0.1775}{0.5} = -0.355 \]

Luego, encontramos la probabilidad asociada con \(-0.355\) en la distribución normal estándar. Usando una tabla de la distribución normal estándar o una calculadora, obtenemos:

\[ \beta = P(Z \leq -0.355) \approx 0.3594 \]

Por lo tanto, la probabilidad de cometer un error tipo II (\(\beta\)) para esta prueba, con una diferencia verdadera de \(\mu = 16\), es aproximadamente 0.3594.

# Cargar la librería necesaria
library(ggplot2)
library(plotly)
# Definir parámetros
mu0 <- 15       # Media bajo H0
mu_a <- 16      # Media bajo Ha
sigma <- 3      # Desviación estándar
n <- 36         # Tamaño de la muestra
alpha <- 0.05   # Nivel de significancia
z_alpha <- qnorm(1 - alpha)  # Valor crítico para alfa = 0.05

# Valores para el gráfico
x <- seq(mu0 - 4*sigma/sqrt(n), mu_a + 4*sigma/sqrt(n), length.out = 100)
y0 <- dnorm(x, mean = mu0, sd = sigma/sqrt(n))
y_a <- dnorm(x, mean = mu_a, sd = sigma/sqrt(n))

# Crear el gráfico
g<-ggplot() +
  geom_line(aes(x = x, y = y0), color = "blue", size = 1) +
  geom_line(aes(x = x, y = y_a), color = "red", size = 1) +
  geom_area(aes(x = x[x > mu0 + z_alpha * sigma/sqrt(n)], y = y0[x > mu0 + z_alpha * sigma/sqrt(n)]),
            fill = "red", alpha = 0.5) +
  geom_vline(xintercept = mu0 + z_alpha * sigma/sqrt(n), linetype = "dashed", color = "black") +
  geom_vline(xintercept = mu_a, linetype = "dotted", color = "green") +
  labs(title = "Distribución del Estadístico de Prueba",
       x = "Valor del Estadístico de Prueba",
       y = "Densidad",
       subtitle = paste("Región de Rechazo para alfa =", alpha, "y valor observado de Z bajo Ha")) +
  theme_minimal()

ggplotly(g)

Explicación del Gráfico

  • Curva Azul: Muestra la distribución normal del estadístico de prueba \(Z\) bajo la hipótesis nula \(H_0: \mu = 15\).
  • Curva Roja: Muestra la distribución normal del estadístico de prueba \(Z\) bajo la hipótesis alternativa \(H_a: \mu = 16\).
  • Región Sombreada (Roja): Representa la región de rechazo para un nivel de significancia \(\alpha = 0.05\). Si el valor calculado de \(Z\) cae en esta área, se rechaza la hipótesis nula en favor de la alternativa.
  • Línea Verde (Punteada): Representa el valor observado del estadístico de prueba \(Z\) bajo la hipótesis alternativa.

Este gráfico ayuda a visualizar cómo se utilizan las distribuciones bajo la hipótesis nula y alternativa, y cómo se determina la probabilidad de error tipo II (\(\beta\)) al comparar el valor observado con la región de rechazo.

Conclusión

Un valor grande de \(\beta\) indica que es frecuente que muestras de tamaño \(n = 36\) no detecten una diferencia de 1 unidad entre las medias hipotéticas. Para reducir el valor de \(\beta\), se puede aumentar el tamaño muestral \(n\).

Problema

Suponga que el vicepresidente desea probar las hipótesis \(H_0 : \mu = 15\) contra \(H_a : \mu = 16\), con \(\alpha = \beta = 0.05\). Determine el tamaño muestral que asegure esta precisión. Suponga que la varianza \(\sigma^2\) es aproximadamente 9.

Solución

Dado que \(\alpha = \beta = 0.05\), se deduce que \(z_\alpha = z_\beta = z_{0.05} = 1.645\). Para calcular el tamaño muestral \(n\), utilizamos la fórmula:

\[ n = \frac{(z_\alpha + z_\beta)^2 \cdot \sigma^2}{(\mu_a - \mu_0)^2} \]

Donde:

  • \(z_\alpha\) y \(z_\beta\) son los valores críticos para \(\alpha\) y \(\beta\),
  • \(\sigma^2 = 9\) es la varianza aproximada,
  • \(\mu_a = 16\) es el valor de la media bajo la hipótesis alternativa,
  • \(\mu_0 = 15\) es el valor de la media bajo la hipótesis nula.

Sustituyendo los valores:

\[ n = \frac{(1.645 + 1.645)^2 \cdot 9}{(16 - 15)^2} = \frac{(3.29)^2 \cdot 9}{1^2} = \frac{10.8241 \cdot 9}{1} = 97.4 \]

Redondeando, obtenemos \(n = 98\).

Conclusión

Para asegurar que \(\alpha \approx \beta \approx 0.05\), el vicepresidente debe utilizar un tamaño muestral de al menos 98 observaciones.

library(ggplot2)
library(plotly)
# Parámetros
mu0 <- 15  # media bajo H0
mu_a <- 16  # media bajo Ha
sigma <- 3  # desviación estándar poblacional
n <- 98  # tamaño muestral
alpha <- 0.05  # nivel de significancia
z_alpha <- qnorm(1 - alpha)  # valor crítico de z para alfa
valor_critico <- mu0 + z_alpha * (sigma / sqrt(n))

# Crear un rango de valores para la media muestral
x <- seq(13, 18, length = 1000)

# Crear las densidades bajo H0 y Ha
f_H0 <- dnorm(x, mean = mu0, sd = sigma / sqrt(n))
f_Ha <- dnorm(x, mean = mu_a, sd = sigma / sqrt(n))

# Crear un dataframe con los valores
df <- data.frame(x = x, f_H0 = f_H0, f_Ha = f_Ha)

# Gráfico con ggplot
g<-ggplot(df, aes(x = x)) +
  geom_line(aes(y = f_H0, color = "Distribución bajo H0"), size = 1.2) +
  geom_line(aes(y = f_Ha, color = "Distribución bajo Ha"), size = 1.2) +
  
  # Sombrear la región de rechazo (Error Tipo I, en rojo)
  geom_area(data = subset(df, x > valor_critico), 
            aes(y = f_H0), fill = "red", alpha = 0.5) +
  
  # Sombrear la región de beta (Error Tipo II, en naranja)
  geom_area(data = subset(df, x <= valor_critico), 
            aes(y = f_Ha), fill = "orange", alpha = 0.5) +
  
  # Línea de valor crítico
  geom_vline(xintercept = valor_critico, linetype = "dashed", color = "black", size = 1) +
  
  labs(title = "Distribuciones bajo H0 y Ha",
       x = "Media Muestral",
       y = "Densidad",
       color = "Distribuciones") +
  
  scale_color_manual(values = c("Distribución bajo H0" = "blue", "Distribución bajo Ha" = "green")) +
  
  theme_minimal() +
  theme(legend.position = "top")

ggplotly(g)

Explicación del gráfico:

  • Líneas: Muestran las distribuciones bajo \(H_0\) (en azul) y \(H_a\) (en verde).

  • Área roja: Representa la región de rechazo de \(H_0\), que corresponde al error tipo I (\(\alpha\)).

  • Área naranja: Representa la región de aceptación de \(H_0\), pero bajo \(H_a\), es decir, el error tipo II (\(\beta\)).

  • Línea discontinua negra: Indica el valor crítico que separa las regiones de aceptación y rechazo de \(H_0\).

Intervalos de Confianza

Los intervalos de confianza son una herramienta fundamental en la inferencia estadística, ya que nos permiten estimar el rango dentro del cual es probable que se encuentre un parámetro poblacional desconocido, como la media \(\mu\), con un cierto nivel de confianza. En lugar de hacer una estimación puntual, los intervalos de confianza proporcionan un rango de valores posibles que es consistente con los datos observados.

Definición de un Intervalo de Confianza

Un intervalo de confianza para un parámetro poblacional \(\mu\) es un rango de valores construidos a partir de los datos de la muestra, en el cual esperamos que el parámetro verdadero esté contenido con una cierta probabilidad, llamada nivel de confianza.

El intervalo de confianza se denota como:

\[ (\text{Límite Inferior}, \text{Límite Superior}) \]

donde los extremos del intervalo dependen de la estimación puntual y la variabilidad de los datos.

Fórmula para el Intervalo de Confianza para la Media

Para una muestra grande, si el estimador \(\hat{\mu}\) de la media poblacional \(\mu\) tiene una distribución aproximadamente normal (lo cual es cierto según el Teorema del Límite Central cuando el tamaño de la muestra es grande), el intervalo de confianza \(100(1-\alpha)\%\) para \(\mu\) se construye de la siguiente manera:

\[ \hat{\mu} \pm z_{\alpha/2} \cdot \frac{\sigma}{\sqrt{n}} \]

Donde: - \(\hat{\mu}\) es el valor observado de la media muestral. - \(z_{\alpha/2}\) es el valor crítico de la distribución normal estándar que deja una probabilidad de \(\alpha/2\) en cada cola. - \(\sigma\) es la desviación estándar de la población (o una estimación de ella, si no se conoce). - \(n\) es el tamaño de la muestra.

El resultado es un rango de valores en el que creemos que se encuentra la verdadera media poblacional \(\mu\) con un nivel de confianza \(100(1 - \alpha)\%\).

Por ejemplo, si \(\alpha = 0.05\), el intervalo de confianza es un intervalo de confianza del 95%, lo que significa que hay un 95% de probabilidad de que el intervalo calculado a partir de los datos contenga el verdadero valor de \(\mu\).

Interpretación de los Intervalos de Confianza

Es importante recordar que el nivel de confianza no se refiere a la probabilidad de que un valor específico del parámetro esté dentro del intervalo. En su lugar, el nivel de confianza se refiere al proceso de construcción del intervalo. Si construyéramos muchos intervalos de confianza a partir de diferentes muestras, el 95% de esos intervalos incluirían el valor verdadero del parámetro poblacional.

Por lo tanto, un intervalo de confianza del 95% no significa que haya un 95% de probabilidad de que el parámetro esté en el intervalo calculado para una muestra específica, sino que si repetimos el experimento muchas veces, el 95% de los intervalos incluirían el valor verdadero.

Ejemplo

Supongamos que tenemos una muestra de tamaño \(n = 100\), y la media muestral es \(\hat{\mu} = 50\), con una desviación estándar \(\sigma = 10\). Queremos construir un intervalo de confianza del 95% para la media poblacional \(\mu\).

Los pasos son los siguientes:

  1. Buscamos el valor crítico \(z_{\alpha/2}\). Para un nivel de confianza del 95%, \(\alpha = 0.05\), por lo que \(z_{0.025}\) es aproximadamente 1.96.

  2. Calculamos el error estándar de la media muestral:

\[ \text{Error estándar} = \frac{\sigma}{\sqrt{n}} = \frac{10}{\sqrt{100}} = 1 \]

  1. Construimos el intervalo de confianza:

\[ 50 \pm 1.96 \cdot 1 \]

\[ 50 \pm 1.96 = (48.04, 51.96) \]

Así, el intervalo de confianza del 95% para la media poblacional es \((48.04, 51.96)\). Esto significa que, con un 95% de confianza, podemos decir que la media verdadera de la población está entre 48.04 y 51.96.

Extensión a Intervalos de Confianza para Otros Parámetros

La misma lógica de los intervalos de confianza para la media se extiende a otros parámetros como la proporción, la diferencia de medias, o la varianza. En todos los casos, el objetivo es proporcionar un rango plausible para el parámetro, con un nivel de confianza predefinido.

Tipos de Intervalos de Confianza

  1. Intervalo de confianza bilateral: El más común, incluye tanto un límite inferior como superior.
  2. Intervalo de confianza unilateral: Puede ser inferior o superior, y se utiliza cuando solo se desea establecer un límite por un lado (por ejemplo, para demostrar que un parámetro es mayor o menor que un valor específico).

Importancia de los Intervalos de Confianza

Los intervalos de confianza son esenciales en la inferencia estadística porque: - Proporcionan una medida de la incertidumbre asociada con una estimación. - Nos permiten evaluar la precisión de los estimadores muestrales. - Nos ayudan a tomar decisiones informadas, especialmente cuando se relacionan con pruebas de hipótesis.

A continuación, exploraremos la relación entre los intervalos de confianza y las pruebas de hipótesis, destacando cómo estas dos herramientas están interconectadas y se complementan en el análisis estadístico.

Ejemplo 1: Intervalo de Confianza para el Problema de Ventas

Recordemos el Problema de Ventas, en el que se planteó una muestra de datos para las ventas de un producto. Supongamos que la media muestral de ventas por mes es \(\hat{\mu} = 20\) unidades, con una desviación estándar \(\sigma = 4\) unidades, y un tamaño muestral \(n = 50\). Queremos calcular un intervalo de confianza del 95% para la media poblacional de ventas.

  1. Valor crítico: Para un nivel de confianza del 95%, \(z_{\alpha/2} = 1.96\).

  2. Error estándar:

\[ \text{Error estándar} = \frac{\sigma}{\sqrt{n}} = \frac{4}{\sqrt{50}} \approx 0.566 \]

  1. Intervalo de confianza:

\[ 20 \pm 1.96 \cdot 0.566 = 20 \pm 1.11 \]

\[ (18.89, 21.11) \]

El intervalo de confianza del 95% para la media de ventas mensuales está entre 18.89 y 21.11 unidades. Esto significa que, con un 95% de confianza, podemos decir que la media verdadera de ventas por mes se encuentra en ese rango.

Ejemplo 2: Intervalo de Confianza para el Problema del Vicepresidente

En el Problema del Vicepresidente, se está evaluando si la media poblacional de un parámetro es 15, y se quiere probar contra la alternativa de que sea 16. Se sabe que la desviación estándar de la población es \(\sigma = 3\) y se ha determinado un tamaño muestral de \(n = 98\) observaciones. Queremos construir un intervalo de confianza del 95% para la media poblacional.

  1. Valor crítico: Para un nivel de confianza del 95%, \(z_{\alpha/2} = 1.96\).

  2. Error estándar:

\[ \text{Error estándar} = \frac{\sigma}{\sqrt{n}} = \frac{3}{\sqrt{98}} \approx 0.303 \]

  1. Intervalo de confianza:

Supongamos que la media muestral observada es \(\hat{\mu} = 15.5\).

\[ 15.5 \pm 1.96 \cdot 0.303 = 15.5 \pm 0.594 \]

\[ (14.91, 16.09) \]

El intervalo de confianza del 95% para la media poblacional está entre 14.91 y 16.09. Esto significa que, con un 95% de confianza, podemos decir que la media verdadera se encuentra en este rango.

Ejercicio 1

Defina a y b para una prueba estadística de hipótesis.

Ejercicio 2

Un investigador ha preparado un nivel de dosis de droga que según él, inducirá el sueño en 80% de las personas que sufren de insomnio. Después de examinar la dosis, pensamos que lo dicho por él respecto a la efectividad de la dosis es exagerado. En un intento por refutar su dicho, administramos la dosis prescrita a 20 personas que padecen de insomnio y observamos Y, el número de individuos a quienes la dosis induce el sueño. Deseamos probar la hipótesis H0: p = .8 contra la alternativa, Ha: p < .8. Suponga que se usa la región de rechazo {y ≤ 12}. a) De acuerdo con la información de este problema, ¿qué es un error tipo I? b) Encuentra a. c) Con base en la información de este problema, ¿qué es un error tipo II? d) Encuentra b cuando p = .6. e) Encuentra b cuando p = .4.

Ejercicio 3

  1. Defina la región de rechazo de la forma {y ≤ c} de modo que a ≈ .01.
  2. Para la región de rechazo del inciso a, encuentre b cuando p = .6.
  3. Para la región de rechazo del inciso a, encuentre b cuando p = .4.

Ejercicio 4

Suponga que deseamos probar la hipótesis nula H0 de que la proporción p de hojas de contabilidad con errores es igual a .05 contra la alternativa Ha de que la proporción es mayor que .05 usando el siguiente esquema. Se seleccionan al azar dos hojas de contabilidad. Si ninguna de ellas tiene errores, rechazamos H0; si una o más contienen un error, vemos una tercera hoja. Si ésta no tiene errores, rechazamos H0. En todos los otros casos aceptamos H0. a) De acuerdo con la información de este problema, ¿qué es un error tipo I? b) ¿Cuál es el valor de a relacionado con esta prueba? c) Con base en la información de este problema, ¿qué es un error tipo II? d) Calcule b = P (error tipo II) como una función de p.

Ejercicio 5

Suponga que Y1 y Y2 son independientes y están distribuidas idénticamente con una distribución uniforme en el intervalo (u, u + 1). Para probar H0: u = 0 contra Ha: u > 0, tenemos dos pruebas: - Prueba 1: rechazar H0 si Y1 > .95. - Prueba 2: rechazar H0 si Y1 + Y2 > c.

Encuentre el valor de c para que la prueba 2 tenga el mismo valor para a que la prueba 1.

Ejercicio 6

Nos interesa probar si una moneda está o no balanceada, con base en el número de caras Y en 36 tiros de la moneda (H0: p = .5 contra Ha: p ≠ .5). Si usamos la región de rechazo |y − 18| ≥ 4, ¿cuál es a) el valor de a? b) el valor de b si p = .7?

Ejercicio 7

  1. El nivel de la prueba calculado en el Ejercicio 6(a) es la probabilidad de que H0 sea verdadera.
  2. El valor de b calculado en el Ejercicio 6(b) es la probabilidad de que Ha sea verdadera.
  3. En el Ejercicio 6(b), b se calculó suponiendo que la hipótesis nula era falsa.
  4. Si b se calculó cuando p = 0.55, el valor sería más grande que el valor de b obtenido en el Ejercicio 6(b).
  5. La probabilidad de que la prueba equivocadamente rechace H0 es b.
  6. Suponga que la región de rechazo (RR) se cambió a |y − 18| ≥ 2.
    1. Esta RR llevaría a rechazar la hipótesis nula con más frecuencia que la RR empleada en el Ejercicio 6.
    2. Si a se calculó usando esta nueva RR, el valor sería más grande que el valor obtenido en el Ejercicio 6(a).
    3. Si b se calculó cuando p = .7 y usando esta nueva RR, el valor sería más grande que el valor obtenido en el Ejercicio 6(b).

Ejercicio 8

Una prueba clínica en dos etapas está planeada para probar H0: p = .10 contra Ha: p > .10, donde p es la proporción de pacientes que responden a un tratamiento y que fueron tratados según el protocolo. En la primera etapa, 15 pacientes se acumulan y tratan. Si 4 o más de los que responden se observan entre los (primeros) 15 pacientes, H0 es rechazada, el estudio se termina y no se acumulan más pacientes. De otro modo, otros 15 pacientes se acumularán y tratarán en la segunda etapa. Si un total de 6 o más de los que responden se observan entre los 30 pacientes acumulados en las dos etapas (15 en la primera etapa y 15 más en la segunda etapa), entonces H0 es rechazada. Por ejemplo, si 5 de los que responden se encuentran entre los pacientes de la primera etapa, H0 es rechazada y el estudio se termina. No obstante, si 2 de los que responden se encuentran entre los pacientes de la primera etapa, se acumulan 15 pacientes de la segunda etapa y se identifican otros 4 o más de los que responden (para un total de 6 o más entre los 30), H0 es rechazada y el estudio termina. a) Utilice la tabla binomial para hallar el valor numérico de a para este procedimiento de prueba. b) Utilice la tabla binomial para determinar la probabilidad de rechazar la hipótesis nula cuando use esta región de rechazo si p = .30. c) Para la región de rechazo definida líneas antes, encuentre b si p = .30.

Ejercicio 9

Un estudio reportó el número de metros (m) por semana nadados por dos grupos de nadadores: los que compitieron exclusivamente en brazada de pecho y los que compitieron en el relevo individual (que incluye brazada de pecho). Para cada nadador, se registró el número de metros por semana en la práctica de brazada de pecho y el resumen de estadísticas se proporciona a continuación. ¿Hay suficiente evidencia para indicar que el número promedio de metros por semana, empleados en practicar la brazada de pecho, es mayor para los especialistas en brazada de pecho y menor para los nadadores de relevo individual? - Especialidad Exclusivamente brazada de pecho - Relevo individual - Tamaño muestral: 80 vs. 130 - Media muestral (m): 5853 vs. 9017 - Desviación muestral estándar (m): 1961 vs. 7162

  1. Indique las hipótesis nula y alternativa.
  2. ¿Cuál es la región de rechazo apropiada para una prueba de nivel a = .01?
  3. Calcule el valor observado del estadístico de prueba apropiado.
  4. ¿Cuál es su conclusión?
  5. ¿Cuál es la razón práctica para la conclusión a la que llegó en el inciso d?

Ejercicio 10

Los salarios por hora en una industria particular están distribuidos normalmente con media de $13.20 y desviación estándar de $2.50. Una compañía en esta industria emplea 40 trabajadores, pagándoles un promedio de $12.20 por hora. ¿Esta compañía puede ser acusada de pagar salarios abajo del estándar? Use una prueba de nivel a = .01.

Ejercicio 11

El voltaje de salida para un circuito eléctrico es de 130. Una muestra de 40 lecturas independientes del voltaje para este circuito dio una media muestral de 128.6 y desviación estándar de 2.1. Pruebe la hipótesis de que el promedio de voltaje de salida es 130 contra la alternativa de que es menor a 130. Use una prueba con nivel .05.

Ejercicio 12

El índice Rockwell de dureza para acero se determina al presionar una punta de diamante en el acero y medir la profundidad de la penetración. Para 50 especímenes de una aleación de acero, el índice Rockwell de dureza promedió 62 con desviación estándar de 8. El fabricante dice que esta aleación tiene un índice de dureza promedio de al menos 64. ¿Hay suficiente evidencia para refutar lo dicho por el fabricante con un nivel de significancia de 1%?

Ejercicio 13

Mediciones de resistencia al corte, obtenidas de pruebas de compresión no confinada para dos tipos de suelos, proporcionaron los resultados que se muestran en la siguiente tabla (medidas en toneladas por pie cuadrado). - Tipo de suelo I: n1 = 30, y1 = 1.65, s1 = 0.26 - Tipo de suelo II: n2 = 35, y2 = 1.43, s2 = 0.22

  1. ¿Parecen diferir los suelos con respecto al promedio de resistencia al corte con un nivel de significancia de 1%?

Ejercicio 14

Consulte el Ejercicio 11. Si el voltaje baja hasta 128 pueden aparecer consecuencias graves. Determine la potencia de la prueba en el Ejercicio 11 para el caso en el que el voltaje es 128.

Ejercicio 15

Las operaciones de mantenimiento en un sistema de producción son monitoreadas. Para una muestra de 40 máquinas, el tiempo promedio de mantenimiento es de 25 minutos y la desviación estándar es de 3.5 minutos. Suponga que el tiempo promedio de mantenimiento de la población es de 22 minutos. Pruebe si hay suficiente evidencia para indicar que el tiempo promedio de mantenimiento para la muestra es mayor que 22 minutos.

Ejercicio 16

El sistema de filtración en un proceso de fabricación debe eliminar partículas más pequeñas que 0.5 micrómetros. Se ha obtenido una muestra aleatoria de 25 partículas y se encontró que 4 de ellas eran más grandes de 0.5 micrómetros. Estime el nivel de significancia para una prueba de hipótesis para determinar si el sistema está fallando.

Ejercicio 17

El tiempo medio de recuperación de una operación quirúrgica es de 10 días. Se ha registrado el tiempo de recuperación para una muestra de 18 pacientes, y el tiempo promedio de recuperación fue de 11.3 días con una desviación estándar de 2.8 días. Pruebe si el tiempo promedio de recuperación es significativamente diferente de 10 días.

Ejercicio 18

Un fabricante afirma que el tiempo medio de vida útil de una bombilla es de 1000 horas. Para probar esta afirmación, se toma una muestra aleatoria de 15 bombillas y se encuentra que el tiempo medio de vida útil es de 980 horas con una desviación estándar de 30 horas. ¿Es suficiente evidencia para cuestionar la afirmación del fabricante con un nivel de significancia de 0.05?

Ejercicio 19

Una compañía farmacéutica está investigando el tiempo medio para que un medicamento cause alivio en una muestra de 40 pacientes. El tiempo medio observado es de 15 minutos con una desviación estándar de 4 minutos. Determine si hay suficiente evidencia para afirmar que el tiempo medio es menor de 20 minutos.

Ejercicio 20

Para un nuevo modelo de automóvil, se ha reportado que el consumo promedio de combustible es de 25 millas por galón. Se realiza un estudio con una muestra de 50 automóviles, y el consumo promedio observado es de 23 millas por galón con una desviación estándar de 2 millas por galón. ¿Es el consumo promedio significativamente menor de 25 millas por galón con un nivel de significancia de 0.01?

Relaciones entre los procedimientos de pruebas de hipótesis e intervalos de confianza

Hasta este punto, hemos considerado dos procedimientos para muestras grandes que permiten hacer inferencias acerca de un parámetro objetivo \(u\). Si \(\hat{u}\) es un estimador de \(u\) con una distribución muestral aproximadamente normal, un intervalo de confianza bilateral para \(u\) con coeficiente de confianza \(1 - \alpha\) está dado por:

\[ \hat{u} \pm z_{\alpha/2} \cdot \hat{\sigma}_{\hat{u}}, \]

donde \(\hat{\sigma}_{\hat{u}}\) es el error estándar del estimador \(\hat{u}\), es decir, la desviación estándar de la distribución muestral de \(\hat{u}\). El valor \(z_{\alpha/2}\) es un número obtenido utilizando la tabla de la distribución normal estándar y es tal que \(P(Z > z_{\alpha/2}) = \alpha/2\), donde \(Z\) es una variable aleatoria con distribución normal estándar.

Para muestras grandes, si queremos realizar una prueba de hipótesis de nivel de significancia \(\alpha\), donde la hipótesis nula es \(H_0 : u = u_0\) y la alternativa es \(H_a : u \neq u_0\) (una prueba de dos colas), podemos utilizar un estadístico de prueba basado en la distribución \(Z\). El estadístico de prueba es:

\[ Z = \frac{\hat{u} - u_0}{\hat{\sigma}_{\hat{u}}}, \]

donde \(\hat{u}\) es el estimador de \(u\), \(u_0\) es el valor propuesto bajo la hipótesis nula, y \(\hat{\sigma}_{\hat{u}}\) es el error estándar del estimador \(\hat{u}\). Rechazamos la hipótesis nula \(H_0\) si el valor del estadístico \(Z\) cae fuera del intervalo \([-z_{\alpha/2}, z_{\alpha/2}]\), es decir, en la región de rechazo \(\{|Z| > z_{\alpha/2}\}\).

Estos dos procedimientos —el cálculo de un intervalo de confianza y la prueba de hipótesis— dependen del estimador \(\hat{u}\), su error estándar \(\hat{\sigma}_{\hat{u}}\) y los valores críticos de la tabla normal estándar \(z_{\alpha/2}\).

Región de Aceptación

El complemento de la región de rechazo se denomina región de aceptación. Para una prueba de dos colas con nivel de significancia \(\alpha\), la región de aceptación está dada por:

\[ RR = \{-z_{\alpha/2} \leq Z \leq z_{\alpha/2}\}. \]

Esto significa que no rechazamos \(H_0 : u = u_0\) si el estadístico \(Z\) cae dentro de ese rango. En términos del estimador \(\hat{u}\), no rechazamos \(H_0\) si se cumple la siguiente desigualdad:

\[ - z_{\alpha/2} \leq \frac{\hat{u} - u_0}{\hat{\sigma}_{\hat{u}}} \leq z_{\alpha/2}. \]

Esto se puede reescribir de forma que no rechazamos \(H_0\) si:

\[ \hat{u} - z_{\alpha/2} \cdot \hat{\sigma}_{\hat{u}} \leq u_0 \leq \hat{u} + z_{\alpha/2} \cdot \hat{\sigma}_{\hat{u}}. \]

Relación entre Intervalos de Confianza y Pruebas de Hipótesis

De este modo, observamos que las expresiones anteriores son equivalentes a los puntos extremos de un intervalo de confianza del \(100(1 - \alpha)\%\) para \(u\). Existe, por tanto, una dualidad entre los procedimientos para construir un intervalo de confianza y la realización de una prueba de hipótesis.

En términos simples: no rechazamos la hipótesis nula \(H_0 : u = u_0\) si el valor \(u_0\) se encuentra dentro del intervalo de confianza \(100(1 - \alpha)\%\) para \(u\). Por el contrario, rechazamos \(H_0\) si \(u_0\) se encuentra fuera de este intervalo. De manera equivalente, un intervalo de confianza \(100(1 - \alpha)\%\) se puede interpretar como el conjunto de todos los valores de \(u_0\) para los cuales \(H_0 : u = u_0\) es “aceptable” en el nivel \(\alpha\).

Es importante notar que cualquier valor dentro del intervalo de confianza es considerado un valor posible del parámetro \(u\), no uno único, sino una colección infinita de valores que podrían ser razonables. Por esta razón, aunque \(u_0\) caiga dentro del intervalo de confianza, no aceptamos la hipótesis nula de manera categórica. En cambio, reconocemos que hay muchos valores posibles de \(u\) y evitamos aceptar un valor individual como el valor verdadero.

Pruebas Unilaterales

En el caso de pruebas unilaterales, si se desea realizar una prueba de nivel \(\alpha\) para \(H_0 : u = u_0\) contra \(H_a : u > u_0\) (una prueba de cola superior), aceptamos la hipótesis alternativa si \(u_0\) es menor que el límite inferior de un intervalo de confianza \(100(1 - \alpha)\%\) para \(u\).

Por otro lado, si la hipótesis alternativa es \(H_a : u < u_0\) (una prueba de cola inferior), rechazamos \(H_0\) a favor de \(H_a\) si \(u_0\) es mayor que el límite superior de un intervalo de confianza \(100(1 - \alpha)\%\) para \(u\).

Sí, es posible representar visualmente el concepto de la prueba de hipótesis y los intervalos de confianza en una gráfica que muestra la distribución del estimador \(\hat{u}\) (normalmente distribuido) y las regiones de aceptación y rechazo.

Aquí te dejo un código en R para crear esta gráfica:

# Cargar las librerías necesarias
library(ggplot2)

# Parámetros
mu <- 0           # Valor verdadero de u
sigma <- 1        # Error estándar
alpha <- 0.05     # Nivel de significancia
z_alpha_2 <- qnorm(1 - alpha/2)  # Valor crítico de Z para una prueba de dos colas

# Crear datos para la distribución normal
x <- seq(-4, 4, length = 1000)
y <- dnorm(x, mean = mu, sd = sigma)

# Definir los límites de la región de aceptación
lim_inf <- mu - z_alpha_2 * sigma
lim_sup <- mu + z_alpha_2 * sigma

# Crear el gráfico
ggplot(data.frame(x, y), aes(x, y)) +
  geom_line(color = "blue", size = 1) + # Curva de la distribución normal
  geom_vline(xintercept = lim_inf, linetype = "dashed", color = "red", size = 1) + # Límite inferior de la región de aceptación
  geom_vline(xintercept = lim_sup, linetype = "dashed", color = "red", size = 1) + # Límite superior de la región de aceptación
  geom_ribbon(data = subset(data.frame(x, y), x >= lim_inf & x <= lim_sup), aes(ymax = y), ymin = 0, fill = "green", alpha = 0.3) + # Región de aceptación
  geom_ribbon(data = subset(data.frame(x, y), x < lim_inf | x > lim_sup), aes(ymax = y), ymin = 0, fill = "red", alpha = 0.3) + # Regiones de rechazo
  labs(title = "Prueba de Hipótesis y Región de Aceptación/Rechazo",
       x = "Estimador (u_hat)", y = "Densidad") +
  theme_minimal() +
  annotate("text", x = lim_inf - 0.5, y = 0.1, label = "Límite inferior", color = "red") +
  annotate("text", x = lim_sup + 0.5, y = 0.1, label = "Límite superior", color = "red") +
  annotate("text", x = mu, y = 0.4, label = "Distribución de u_hat", color = "blue") +
  annotate("text", x = (lim_inf + lim_sup) / 2, y = 0.05, label = "Región de aceptación", color = "green")

Descripción de la gráfica:

  • Curva azul: Representa la distribución muestral del estimador \(\hat{u}\), que se asume sigue una distribución normal.

  • Líneas rojas punteadas: Son los límites superior e inferior de la región de aceptación, que están determinados por el valor crítico \(z_{\alpha/2}\) para una prueba de hipótesis de dos colas.

  • Zona verde: La región entre los dos límites críticos representa la región de aceptación, donde no rechazamos la hipótesis nula \(H_0\).

  • Zonas rojas: Son las regiones de rechazo a ambos lados, donde rechazamos la hipótesis nula si el estimador cae fuera de la región de aceptación.

Esta gráfica ilustra la relación entre los intervalos de confianza y la prueba de hipótesis, y cómo se determina si se rechaza o no la hipótesis nula según el valor observado del estimador \(\hat{u}\).

Otraformadepresentarlosresultados de una prueba estadística: niveles de significancia alcanzados o valores p

Como ya indicamos previamente, es frecuente que la probabilidad de un error tipo I reciba el nombre de nivel de significancia o, dicho de forma más sencilla, nivel de la prueba. Aunque se recomienden con frecuencia pequeños valores de α, el valor real de α para usar en un análisis es un tanto arbitrario. Un experimentador puede escoger realizar una prueba con α = 0.05 mientras que otro podría preferir α = 0.01. Es posible, por tanto, que dos personas analicen la misma información y lleguen a conclusiones opuestas: una puede concluir que la hipótesis nula debe ser rechazada con un nivel de significancia α = 0.05, mientras que la otra puede decidir que no debe rechazarse con α = 0.01. Además, los valores de α de 0.05 o 0.01 se emplean frecuentemente por costumbre o comodidad más que por una cuidadosa consideración de las consecuencias de cometer un error tipo I.

Una vez tomada una decisión sobre un estadístico de prueba, a veces es posible presentar el valor p o nivel de significancia alcanzado, que está relacionado con una prueba. Esta cantidad representa el valor más pequeño de α para el cual se puede rechazar la hipótesis nula. Si W es un estadístico de prueba, el valor p, o nivel de significancia alcanzado, es el nivel más pequeño de α para el cual la información observada indica que la hipótesis nula debe ser rechazada.

Definición 10.2

Cuanto más pequeño sea el valor de p, más fuerte será la evidencia de que la hipótesis nula debe ser rechazada. Numerosas publicaciones científicas requieren que los investigadores notifiquen los valores p relacionados con pruebas estadísticas, ya que brindan al lector más información que simplemente decir si la hipótesis nula fue rechazada o no para un determinado valor de α seleccionado por el investigador. Si el valor de p es lo suficientemente pequeño para convencer al lector, este debe rechazar la hipótesis nula. Si un experimentador tiene un valor de α en mente, puede usar el valor p para llevar a cabo una prueba con ese nivel α. Si el valor deseado de α es mayor o igual al valor p, la hipótesis nula será rechazada para ese valor de α.

En particular, el valor p permite a cada lector usar su propia elección de α para decidir si los datos observados conducen al rechazo de la hipótesis nula. Los procedimientos para hallar valores p para las pruebas que hemos estudiado hasta ahora se presentan en los siguientes ejemplos.

Aquí está el ejemplo consolidado y escrito en formato Markdown:

Ejemplo: Comparación de tiempos de reacción entre hombres y mujeres

Se realizó un estudio psicológico para comparar los tiempos de reacción de hombres y mujeres ante un estímulo. En el experimento, se utilizaron muestras aleatorias independientes de 50 hombres y 50 mujeres. Los resultados obtenidos para los tiempos de reacción se muestran en la siguiente tabla:

Grupo Media Desviación estándar Tamaño de la muestra
Hombres 0.53 0.10 50
Mujeres 0.47 0.12 50

El objetivo es determinar si los datos presentan evidencia suficiente para sugerir una diferencia significativa entre los tiempos medios de reacción de hombres y mujeres. Se llevará a cabo una prueba de hipótesis con un nivel de significancia \(\alpha = 0.05\).

La hipótesis nula y la alternativa son las siguientes:

\[ H_0: \mu_1 - \mu_2 = 0 \] \[ H_a: \mu_1 - \mu_2 \neq 0 \]

El valor del estadístico de prueba fue z = -2.5. Como se trata de una prueba de dos colas, el valor p es la probabilidad de que \(Z \leq -2.5\) o \(Z \geq 2.5\). Utilizando la tabla de la distribución normal estándar, encontramos que:

\[ P(Z \geq 2.5) = 0.0062 \]

Por lo tanto, el valor p es:

\[ p = 2(0.0062) = 0.0124 \]

Dado que el valor \(p = 0.0124\) es menor que \(\alpha = 0.05\), rechazamos la hipótesis nula \(H_0\). Esto indica que existe evidencia suficiente para concluir que hay una diferencia significativa entre los tiempos medios de reacción para hombres y mujeres.

Para añadir gráficos a este ejemplo, podemos utilizar R para crear gráficos que ilustren la distribución normal estándar y el valor p. Aquí te dejo una idea de cómo podrían verse los gráficos en R y un código que podrías usar para generarlos:

Gráfico 1: Distribución normal estándar y área del valor p (prueba de dos colas)

# Cargar librerías
library(ggplot2)
library(plotly)
# Valores para la distribución normal estándar
z_values <- seq(-4, 4, by = 0.01)
densidad <- dnorm(z_values)

# Crear el marco de datos
df <- data.frame(z_values, densidad)

# Definir el valor crítico para la prueba
z_critico <- 2.5

# Gráfico
g<-ggplot(df, aes(x = z_values, y = densidad)) +
  geom_line(color = "blue", size = 1) +
  geom_area(data = subset(df, z_values >= z_critico | z_values <= -z_critico), 
            aes(x = z_values, y = densidad), fill = "red", alpha = 0.4) +
  labs(title = "Distribución Normal Estándar",
       subtitle = "Prueba de dos colas con Z = -2.5 y Z = 2.5",
       x = "Z", y = "Densidad") +
  theme_minimal() +
  geom_vline(xintercept = c(-z_critico, z_critico), 
             linetype = "dashed", color = "black") +
  annotate("text", x = -z_critico - 0.5, y = 0.02, 
           label = "-2.5", color = "black") +
  annotate("text", x = z_critico + 0.5, y = 0.02, 
           label = "2.5", color = "black")

ggplotly(g)

Gráfico 2: Comparación de tiempos de reacción de hombres y mujeres

Podemos hacer un gráfico de caja (boxplot) que compare los tiempos de reacción entre hombres y mujeres.

# Datos de tiempos de reacción
grupo <- factor(rep(c("Hombres", "Mujeres"), each = 50))
reaccion <- c(rnorm(50, mean = 0.53, sd = 0.10), rnorm(50, mean = 0.47, sd = 0.12))

# Crear el marco de datos
datos <- data.frame(grupo, reaccion)

# Gráfico de caja (boxplot)
g<-ggplot(datos, aes(x = grupo, y = reaccion, fill = grupo)) +
  geom_boxplot(alpha = 0.7) +
  labs(title = "Comparación de Tiempos de Reacción",
       subtitle = "Hombres vs. Mujeres",
       x = "Grupo", y = "Tiempos de Reacción (segundos)") +
  scale_fill_manual(values = c("skyblue", "lightpink")) +
  theme_minimal()

ggplotly(g)

Descripción de los gráficos:

  1. Distribución normal estándar: El primer gráfico muestra la distribución normal estándar. Se resaltan las áreas bajo la curva para \(Z \leq -2.5\) y \(Z \geq 2.5\), que representan el valor p en una prueba de dos colas.

  2. Comparación de tiempos de reacción: El segundo gráfico es un boxplot que compara los tiempos de reacción entre hombres y mujeres, lo que permite visualizar la dispersión y la diferencia entre las medianas de ambos grupos.

Estos gráficos complementan el análisis estadístico del ejemplo, proporcionando una interpretación visual de la prueba de hipótesis y los datos experimentales.

Prueba de hipótesis con muestras pequeñas para \(\mu\) y \(\mu_1− \mu_2\)

En esta sección desarrollaremos procedimientos formales para probar hipótesis sobre las medias de una población y la diferencia entre las medias de dos poblaciones normales, aplicables cuando se trabaja con muestras pequeñas.

Supongamos que tenemos una muestra aleatoria de tamaño \(n\) de una distribución normal con media desconocida \(\mu\) y varianza \(\sigma^2\) desconocida. Denotamos la media muestral como \(\bar{Y}\) y la desviación estándar muestral como \(S\). Bajo la hipótesis nula \(H_0: \mu = \mu_0\), el estadístico de prueba tiene la forma:

\[ T = \frac{\bar{Y} - \mu_0}{S / \sqrt{n}} \]

Este estadístico sigue una distribución \(t\) de Student con \(n - 1\) grados de libertad. Dado que la distribución \(t\) es simétrica y en forma de campana, la región de rechazo para una prueba de hipótesis de cola superior \(H_a: \mu > \mu_0\) está dada por \(T > t_{\alpha}\), donde \(t_{\alpha}\) es el valor crítico de la distribución \(t\) con \(n - 1\) grados de libertad.

A continuación, describimos los pasos para realizar una prueba de hipótesis con base en la distribución \(t\):

Prueba para una media con muestra pequeña

Suposiciones:

  • \(Y_1, Y_2, \ldots, Y_n\) constituyen una muestra aleatoria de una población normal con media \(\mu\).

Hipótesis:

  • \(H_0: \mu = \mu_0\)
  • Alternativas:
    • \(H_a: \mu > \mu_0\) (prueba de cola superior)
    • \(H_a: \mu < \mu_0\) (prueba de cola inferior)
    • \(H_a: \mu \neq \mu_0\) (prueba de dos colas)

Estadístico de prueba:

\[ T = \frac{\bar{Y} - \mu_0}{S / \sqrt{n}} \]

Regiones de rechazo:

  • Para \(H_a: \mu > \mu_0\): \(T > t_{\alpha}\)
  • Para \(H_a: \mu < \mu_0\): \(T < -t_{\alpha}\)
  • Para \(H_a: \mu \neq \mu_0\): \(|T| > t_{\alpha/2}\)

Ejemplo

En este ejemplo, se busca determinar si las velocidades iniciales de balas probadas con una nueva pólvora ofrecen suficiente evidencia para contradecir la afirmación del fabricante de que la velocidad promedio no es menor a 3000 pies por segundo. Se utiliza una prueba de hipótesis para muestras pequeñas, asumiendo una distribución normal de las velocidades.

La hipótesis nula es:

  • \(H_0: \mu = 3000\) pies por segundo (la velocidad promedio es al menos 3000).

La hipótesis alternativa es:

  • \(H_a: \mu < 3000\) pies por segundo (la velocidad promedio es menor a 3000).

La media muestral (\(\bar{y}\)) es de 2959 pies por segundo y la desviación estándar muestral (\(s\)) es de 39.1 pies por segundo, con un tamaño muestral de 8 proyectiles (\(n = 8\)).

El estadístico de prueba t se calcula como:

\[ t = \frac{\bar{y} - \mu_0}{s / \sqrt{n}} = \frac{2959 - 3000}{39.1 / \sqrt{8}} = -2.966 \]

Este valor de t se compara con el valor crítico de la distribución t con \(n - 1 = 7\) grados de libertad y un nivel de significancia de \(\alpha = 0.025\). Según la tabla t, el valor crítico es \(t_{0.025} = -2.365\).

Dado que el valor observado de t es \(-2.966\), que es menor que \(-2.365\), se encuentra dentro de la región de rechazo, lo que lleva a rechazar la hipótesis nula.

Esto significa que hay suficiente evidencia para concluir que la velocidad promedio es menor que 3000 pies por segundo en un nivel de significancia de 0.025.

Valor p

El valor p asociado con el estadístico t de \(-2.966\) se calcula usando la distribución t con 7 grados de libertad. Consultando las tablas, se puede observar que el valor t cae entre \(-t_{0.025} = -2.365\) y \(-t_{0.01} = -2.998\). Esto indica que el valor p está entre 0.01 y 0.025.

Al usar una aplicación para calcular el valor exacto de p, se obtiene que \(p = 0.01046\). Esto confirma que se rechaza la hipótesis nula para cualquier nivel de significancia \(\alpha \geq 0.01046\).

Intervalo de confianza

Para el mismo conjunto de datos, podemos calcular un intervalo de confianza del 95% para la verdadera media de la velocidad de las balas. Dado que \(n = 8\), usamos el valor crítico \(t_{0.025, 7} = 2.365\).

El intervalo de confianza se calcula como:

\[ \bar{y} \pm t_{0.025} \left(\frac{s}{\sqrt{n}}\right) = 2959 \pm 2.365 \left(\frac{39.1}{\sqrt{8}}\right) \]

Calculando los márgenes de error:

\[ 2959 \pm 32.68 \]

Por lo tanto, el intervalo de confianza del 95% para la verdadera velocidad promedio \(\mu\) es:

\[ (2926.32, 2991.68) \]

Esto sugiere que, con un 95% de confianza, la verdadera velocidad promedio está entre 2926.32 y 2991.68 pies por segundo, lo que refuerza la evidencia de que la velocidad promedio es menor a 3000 pies por segundo.

Visualización del problema

Claro, vamos a agregar gráficos que ilustren el problema y la solución. Usaremos gráficos para mostrar:

  1. La distribución t y la región de rechazo: Esto ayudará a visualizar dónde cae el valor del estadístico de prueba en relación con el valor crítico y la región de rechazo.
  2. El intervalo de confianza del 95%: Esto mostrará el rango dentro del cual esperamos que se encuentre la verdadera media con un 95% de confianza.

Voy a crear los gráficos utilizando R. Aquí están los códigos y una breve descripción de cada uno:

1. Distribución t y Región de Rechazo

Este gráfico muestra la distribución t con 7 grados de libertad, el valor crítico y la región de rechazo.

# Cargar librerías necesarias
library(ggplot2)

# Parámetros
df <- 7  # grados de libertad
t_crit <- -2.365  # valor crítico para alpha = 0.025
t_observed <- -2.966  # estadístico de prueba observado

# Crear datos para la distribución t
t_values <- seq(-5, 5, length.out = 1000)
t_density <- dt(t_values, df)

# Crear el gráfico
ggplot(data = data.frame(t = t_values, density = t_density), aes(x = t, y = density)) +
  geom_line(size = 1) +
  geom_area(data = subset(data.frame(t = t_values, density = t_density), t < t_crit),
            aes(x = t, y = density), fill = "red", alpha = 0.5) +
  geom_vline(xintercept = t_crit, linetype = "dashed", color = "blue") +
  geom_vline(xintercept = t_observed, linetype = "dashed", color = "green") +
  labs(title = "Distribución t con 7 grados de libertad",
       x = "Valor de t",
       y = "Densidad") +
  theme_minimal() +
  annotate("text", x = t_crit - 0.5, y = 0.3, label = "Región de Rechazo", color = "red", size = 5) +
  annotate("text", x = t_observed - 0.5, y = 0.2, label = "t Observado", color = "green", size = 5) +
  annotate("text", x = t_crit + 0.5, y = 0.1, label = "Valor Crítico", color = "blue", size = 5)

2. Intervalo de Confianza del 95%

Este gráfico muestra el intervalo de confianza del 95% para la verdadera media de la velocidad.

# Parámetros
mean_sample <- 2959
sd_sample <- 39.1
n <- 8
t_critical <- qt(0.975, df = n - 1)  # Valor crítico para el intervalo del 95%

# Calcular el margen de error
margin_error <- t_critical * (sd_sample / sqrt(n))

# Calcular intervalo de confianza
ci_lower <- mean_sample - margin_error
ci_upper <- mean_sample + margin_error

# Crear datos para el gráfico
ci_data <- data.frame(
  x = c(ci_lower, mean_sample, ci_upper),
  y = c(0, 1, 0),
  labels = c(paste0("IC Inferior: ", round(ci_lower, 2)),
             paste0("Media Muestral: ", round(mean_sample, 2)),
             paste0("IC Superior: ", round(ci_upper, 2)))
)

# Crear el gráfico
ggplot() +
  geom_line(aes(x = c(ci_lower, ci_upper), y = c(1, 1)), size = 2, color = "blue") +
  geom_point(data = ci_data, aes(x = x, y = y), color = "blue", size = 3) +
  geom_text(data = ci_data, aes(x = x, y = y + 0.1, label = labels), color = "blue") +
  labs(title = "Intervalo de Confianza del 95% para la Velocidad Promedio",
       x = "Velocidad (pies por segundo)",
       y = "") +
  theme_minimal()

Explicación de los Gráficos

  1. Distribución t y Región de Rechazo:

    • El área sombreada en rojo representa la región de rechazo para una prueba de cola inferior.

    • La línea verde muestra el valor del estadístico de prueba observado, que cae dentro de la región de rechazo.

    • La línea azul indica el valor crítico para el nivel de significancia de 0.025.

  2. Intervalo de Confianza del 95%:

    • La línea azul muestra el intervalo de confianza del 95%.

    • Los puntos y etiquetas indican el intervalo inferior y superior, así como la media muestral.

Observemos el proceso de comparación de dos medias poblacionales con muestras pequeñas utilizando la distribución \(t\).

Resumen del Proceso

  1. Suposiciones:

    • Muestras independientes de distribuciones normales.

    • Varianzas iguales entre las dos poblaciones.

    • Se conoce el tamaño de muestra y se calculan las medias y varianzas muestrales.

  2. Estimador Agrupado:

    • \(S_p^2\) es el estimador agrupado de la varianza común: \[ S_p^2 = \frac{(n_1 - 1)S_1^2 + (n_2 - 1)S_2^2}{n_1 + n_2 - 2} \]
  3. Estadístico de Prueba:

    • Se utiliza el estadístico \(T\):

      \[ T = \frac{(Y_1 - Y_2) - (m_1 - m_2)}{S_p \sqrt{\frac{1}{n_1} + \frac{1}{n_2}}} \]

    • Este estadístico sigue una distribución t con \(n_1 + n_2 - 2\) grados de libertad.

  4. Hipótesis:

    • Nula: \(H_0 : m_1 - m_2 = D_0\)

    • Alternativa: Dependiendo de la prueba:

      • Cola superior: \(H_a : m_1 - m_2 > D_0\)

      • Cola inferior: \(H_a : m_1 - m_2 < D_0\)

      • Dos colas: \(H_a : m_1 - m_2 \neq D_0\)

  5. Región de Rechazo:

    • Cola Superior: \(T > t_{\alpha}\)

    • Cola Inferior: \(T < -t_{\alpha}\)

    • Dos Colas: \(|T| > t_{\alpha/2}\)

Gráficos

Vamos a crear gráficos para ilustrar la distribución t y las regiones de rechazo para las tres pruebas de hipótesis.

1. Distribución t y Regiones de Rechazo para Prueba de Cola Superior, Cola Inferior y Dos Colas

# Cargar librerías necesarias
library(ggplot2)

# Parámetros
df <- 10  # grados de libertad (supongamos n1 = 6 y n2 = 6)
alpha <- 0.05
t_critical_upper <- qt(1 - alpha, df)
t_critical_lower <- qt(alpha, df)
t_critical_two_tail <- qt(1 - alpha / 2, df)

# Crear datos para la distribución t
t_values <- seq(-5, 5, length.out = 1000)
t_density <- dt(t_values, df)

# Crear el gráfico
ggplot(data = data.frame(t = t_values, density = t_density), aes(x = t, y = density)) +
  geom_line(size = 1) +
  geom_area(data = subset(data.frame(t = t_values, density = t_density), t > t_critical_upper),
            aes(x = t, y = density), fill = "red", alpha = 0.5) +
  geom_area(data = subset(data.frame(t = t_values, density = t_density), t < t_critical_lower),
            aes(x = t, y = density), fill = "green", alpha = 0.5) +
  geom_area(data = subset(data.frame(t = t_values, density = t_density), abs(t) > t_critical_two_tail),
            aes(x = t, y = density), fill = "blue", alpha = 0.3) +
  geom_vline(xintercept = t_critical_upper, linetype = "dashed", color = "red") +
  geom_vline(xintercept = t_critical_lower, linetype = "dashed", color = "green") +
  geom_vline(xintercept = t_critical_two_tail, linetype = "dashed", color = "blue") +
  geom_vline(xintercept = -t_critical_two_tail, linetype = "dashed", color = "blue") +
  labs(title = "Distribución t con 10 grados de libertad y Regiones de Rechazo",
       x = "Valor de t",
       y = "Densidad") +
  theme_minimal() +
  annotate("text", x = t_critical_upper + 1, y = 0.2, label = "Región de Rechazo (Cola Superior)", color = "red", size = 5) +
  annotate("text", x = t_critical_lower - 1, y = 0.2, label = "Región de Rechazo (Cola Inferior)", color = "green", size = 5) +
  annotate("text", x = t_critical_two_tail + 1, y = 0.2, label = "Región de Rechazo (Dos Colas)", color = "blue", size = 5)

2. Ejemplo de Intervalo de Confianza y Región de Rechazo

Para ilustrar el intervalo de confianza y cómo se compara con el estadístico de prueba, usaremos un ejemplo con datos muestrales.

# Parámetros del ejemplo
mean1 <- 50  # Media de la primera muestra
mean2 <- 45  # Media de la segunda muestra
sd1 <- 10    # Desviación estándar de la primera muestra
sd2 <- 12    # Desviación estándar de la segunda muestra
n1 <- 10     # Tamaño de la primera muestra
n2 <- 12     # Tamaño de la segunda muestra
D0 <- 0      # Diferencia esperada entre medias (en este caso, 0)

# Estimador agrupado
Sp2 <- ((n1 - 1) * sd1^2 + (n2 - 1) * sd2^2) / (n1 + n2 - 2)
Sp <- sqrt(Sp2)

# Estadístico de prueba
T <- (mean1 - mean2 - D0) / (Sp * sqrt(1 / n1 + 1 / n2))

# Crear datos para el gráfico
intervalo_conf <- data.frame(
  x = c(mean1 - mean2 - 1.96 * Sp * sqrt(1 / n1 + 1 / n2), 
        mean1 - mean2 + 1.96 * Sp * sqrt(1 / n1 + 1 / n2)),
  y = c(0, 0),
  labels = c("Límite Inferior", "Límite Superior")
)

# Crear el gráfico
ggplot() +
  geom_line(aes(x = c(mean1 - mean2 - 1.96 * Sp * sqrt(1 / n1 + 1 / n2), 
                      mean1 - mean2 + 1.96 * Sp * sqrt(1 / n1 + 1 / n2)),
                y = c(1, 1)), size = 2, color = "blue") +
  geom_point(data = intervalo_conf, aes(x = x, y = y), color = "blue", size = 3) +
  geom_text(data = intervalo_conf, aes(x = x, y = y + 0.1, label = labels), color = "blue") +
  labs(title = "Intervalo de Confianza del 95% para la Diferencia de Medias",
       x = "Diferencia de Medias",
       y = "") +
  theme_minimal()

Explicación de los Gráficos

  1. Distribución t y Regiones de Rechazo:

    • Cola Superior: Área roja a la derecha del valor crítico.

    • Cola Inferior: Área verde a la izquierda del valor crítico.

    • Dos Colas: Áreas azules a ambos lados del valor crítico (de ambos extremos).

  2. Intervalo de Confianza del 95%:

    • La línea azul muestra el intervalo de confianza del 95% para la diferencia de medias.

    • Los puntos y etiquetas indican los límites inferior y superior del intervalo.

Pruebas de hipótesis referentes a varianzas

Consideremos una muestra aleatoria \(Y_1, Y_2, \ldots, Y_n\) de una distribución normal con una media desconocida y una varianza desconocida. En este contexto, se quiere evaluar una hipótesis sobre la varianza de la población.

Construcción del Intervalo de Confianza:

Para construir un intervalo de confianza para la varianza de una población, se utiliza el método de pivote. Este método permite calcular un intervalo en el cual se espera que se encuentre el valor verdadero de la varianza con un nivel de confianza especificado.

Prueba de Hipótesis sobre la Varianza:

Supongamos que queremos probar una hipótesis nula sobre la varianza de la población. En particular, consideramos la hipótesis nula \(H_0: \sigma^2 = \sigma_0^2\), donde \(\sigma_0^2\) es un valor específico de la varianza, contra varias hipótesis alternativas.

Si la hipótesis nula es verdadera y el valor real de la varianza es \(\sigma_0^2\), se puede demostrar que la estadística de prueba:

\[ \chi^2 = \frac{(n - 1) S^2}{\sigma_0^2} \]

sigue una distribución chi-cuadrado con \(n - 1\) grados de libertad. Aquí, \(S^2\) es la varianza muestral calculada a partir de los datos.

Para probar la hipótesis nula \(H_0: \sigma^2 = \sigma_0^2\) contra la alternativa \(H_a: \sigma^2 > \sigma_0^2\) (una prueba de cola superior), se usa el estadístico de prueba:

\[ \chi^2 = \frac{(n - 1) S^2}{\sigma_0^2} \]

La región de rechazo para esta prueba es de la forma \(\text{RR} = \{\chi^2 > k\}\), donde \(k\) es un valor crítico que se selecciona para asegurar que la probabilidad de cometer un error tipo I sea \(\alpha\). Es decir, queremos que la probabilidad de rechazar la hipótesis nula cuando es verdadera sea \(\alpha\). Los valores críticos \(k\) se pueden encontrar en tablas de la distribución chi-cuadrado.

Ejemplo:

Si el nivel de significancia es \(\alpha\), la región de rechazo se define como:

\[ \text{RR} = \{\chi^2 > \chi^2_{\alpha}\} \]

donde \(\chi^2_{\alpha}\) es el percentil \(\alpha\) de la distribución chi-cuadrado con \(n - 1\) grados de libertad.

Prueba de Cola Inferior:

Si en cambio, deseamos probar la hipótesis nula \(H_0: \sigma^2 = \sigma_0^2\) contra la alternativa \(H_a: \sigma^2 < \sigma_0^2\) (una prueba de cola inferior), se usa un razonamiento análogo. En este caso, la región de rechazo estará ubicada en la cola inferior de la distribución chi-cuadrado.

Prueba de Dos Colas:

Para una prueba de dos colas, donde la hipótesis alternativa es \(H_a: \sigma^2 \ne \sigma_0^2\), se utiliza una región de rechazo en ambas colas de la distribución chi-cuadrado. Es decir, la región de rechazo se define como:

\[ \text{RR} = \{\chi^2 < \chi^2_{\alpha/2} \text{ o } \chi^2 > \chi^2_{1-\alpha/2}\} \]

donde \(\chi^2_{\alpha/2}\) y \(\chi^2_{1-\alpha/2}\) son los percentiles correspondientes de la distribución chi-cuadrado.

Gráficos:

A continuación, se muestran gráficos para ilustrar las regiones de rechazo en las pruebas de hipótesis sobre la varianza.

  1. Prueba de Cola Superior:
    • La región de rechazo está a la derecha del valor crítico \(\chi^2_{\alpha}\).
  2. Prueba de Cola Inferior:
    • La región de rechazo está a la izquierda del valor crítico \(\chi^2_{\alpha}\).
  3. Prueba de Dos Colas:
    • La región de rechazo está en ambas colas: a la izquierda del valor crítico \(\chi^2_{\alpha/2}\) y a la derecha del valor crítico \(\chi^2_{1-\alpha/2}\).

Estos gráficos proporcionan una visualización clara de cómo se definen las regiones de rechazo en función del tipo de prueba que se realiza.

Aquí están los gráficos que ilustran las regiones de rechazo para las pruebas de hipótesis sobre la varianza usando la distribución chi-cuadrado:

  1. Prueba de Cola Superior:

    • Muestra la región de rechazo a la derecha del valor crítico \(\chi^2_{\alpha}\).
  2. Prueba de Cola Inferior:

    • Muestra la región de rechazo a la izquierda del valor crítico \(\chi^2_{\alpha}\).
  3. Prueba de Dos Colas:

    • Muestra la región de rechazo en ambas colas: a la izquierda del valor crítico \(\chi^2_{\alpha/2}\) y a la derecha del valor crítico \(\chi^2_{1-\alpha/2}\).

Aquí está el código en R para generar estos gráficos:

# Cargar librerías necesarias
library(ggplot2)

# Gráficos de regiones de rechazo para pruebas de hipótesis sobre la varianza

# Definir grados de libertad y niveles de significancia
df <- 10
alpha <- 0.05

# Valores críticos para diferentes pruebas
critical_value_upper <- qchisq(1 - alpha, df)
critical_value_lower <- qchisq(alpha, df)
critical_value_two_tail_left <- qchisq(alpha / 2, df)
critical_value_two_tail_right <- qchisq(1 - alpha / 2, df)

# Rango de valores para la distribución chi-cuadrado
x <- seq(0, 30, by = 0.1)
y <- dchisq(x, df)

# Gráfico de prueba de cola superior
plot_upper <- ggplot(data.frame(x, y), aes(x = x, y = y)) +
  geom_line() +
  geom_area(data = subset(data.frame(x, y), x > critical_value_upper), aes(x = x, y = y), fill = "red", alpha = 0.5) +
  geom_vline(xintercept = critical_value_upper, linetype = "dashed", color = "blue") +
  labs(title = "Prueba de Cola Superior", x = "Valor de Chi-Cuadrado", y = "Densidad") +
  theme_minimal()

# Gráfico de prueba de cola inferior
plot_lower <- ggplot(data.frame(x, y), aes(x = x, y = y)) +
  geom_line() +
  geom_area(data = subset(data.frame(x, y), x < critical_value_lower), aes(x = x, y = y), fill = "red", alpha = 0.5) +
  geom_vline(xintercept = critical_value_lower, linetype = "dashed", color = "blue") +
  labs(title = "Prueba de Cola Inferior", x = "Valor de Chi-Cuadrado", y = "Densidad") +
  theme_minimal()

# Gráfico de prueba de dos colas
plot_two_tail <- ggplot(data.frame(x, y), aes(x = x, y = y)) +
  geom_line() +
  geom_area(data = subset(data.frame(x, y), x < critical_value_two_tail_left), aes(x = x, y = y), fill = "red", alpha = 0.5) +
  geom_area(data = subset(data.frame(x, y), x > critical_value_two_tail_right), aes(x = x, y = y), fill = "red", alpha = 0.5) +
  geom_vline(xintercept = critical_value_two_tail_left, linetype = "dashed", color = "blue") +
  geom_vline(xintercept = critical_value_two_tail_right, linetype = "dashed", color = "blue") +
  labs(title = "Prueba de Dos Colas", x = "Valor de Chi-Cuadrado", y = "Densidad") +
  theme_minimal()

# Mostrar gráficos
print(plot_upper)

print(plot_lower)

print(plot_two_tail)

Descripción de los Gráficos:

  1. Prueba de Cola Superior:

    • La región sombreada en rojo a la derecha del valor crítico representa la región de rechazo. El valor crítico \(\chi^2_{\alpha}\) está indicado por una línea vertical azul.
  2. Prueba de Cola Inferior:

    • La región sombreada en rojo a la izquierda del valor crítico representa la región de rechazo. El valor crítico \(\chi^2_{\alpha}\) está indicado por una línea vertical azul.
  3. Prueba de Dos Colas:

    • Las regiones sombreadas en rojo en ambas colas representan las regiones de rechazo. Los valores críticos \(\chi^2_{\alpha/2}\) y \(\chi^2_{1-\alpha/2}\) están indicados por líneas verticales azules.

Aquí tienes el cuadro resumen detallado sobre las pruebas de hipótesis referentes a una varianza poblacional:

Pruebas de Hipótesis sobre la Varianza Poblacional

Supuestos:

  • \(Y_1, Y_2, \ldots, Y_n\) constituyen una muestra aleatoria de una distribución normal con media \(\mu\) y varianza \(\sigma^2\).
  • \(\bar{Y}\) es la media muestral y \(S^2\) es la varianza muestral.

Hipótesis:

  • Hipótesis Nula (\(H_0\)): \(\sigma^2 = \sigma_0^2\)

  • Hipótesis Alternativa (\(H_a\)):

    • Para la cola superior: \(\sigma^2 > \sigma_0^2\)
    • Para la cola inferior: \(\sigma^2 < \sigma_0^2\)
    • Para dos colas: \(\sigma^2 \neq \sigma_0^2\)

Estadístico de Prueba:

  • \(\chi^2 = \frac{(n-1)S^2}{\sigma_0^2}\)

Regiones de Rechazo:

  1. Alternativa de Cola Superior (\(\sigma^2 > \sigma_0^2\)):

    • Región de Rechazo: \(\chi^2 > \chi^2_{1-\alpha}\)
    • Aquí, \(\chi^2_{1-\alpha}\) es el valor crítico de la distribución chi-cuadrado con \(n-1\) grados de libertad tal que \(P(\chi^2 > \chi^2_{1-\alpha}) = \alpha\).
  2. Alternativa de Cola Inferior (\(\sigma^2 < \sigma_0^2\)):

    • Región de Rechazo: \(\chi^2 < \chi^2_{\alpha}\)
    • Aquí, \(\chi^2_{\alpha}\) es el valor crítico de la distribución chi-cuadrado con \(n-1\) grados de libertad tal que \(P(\chi^2 < \chi^2_{\alpha}) = \alpha\).
  3. Alternativa de Dos Colas (\(\sigma^2 \neq \sigma_0^2\)):

    • Región de Rechazo: \(\chi^2 < \chi^2_{\alpha/2}\) o \(\chi^2 > \chi^2_{1-\alpha/2}\)
    • Aquí, \(\chi^2_{\alpha/2}\) y \(\chi^2_{1-\alpha/2}\) son los valores críticos de la distribución chi-cuadrado con \(n-1\) grados de libertad tal que \(P(\chi^2 < \chi^2_{\alpha/2}) = \alpha/2\) y \(P(\chi^2 > \chi^2_{1-\alpha/2}) = \alpha/2\).

Notas:

  • Los valores críticos \(\chi^2_{\alpha}\), \(\chi^2_{\alpha/2}\), y \(\chi^2_{1-\alpha/2}\) se obtienen de las tablas de la distribución chi-cuadrado.

  • El valor \(\alpha\) representa el nivel de significancia de la prueba.