hllinas2023

1 Paquetes utilizados

library(ggplot2)
library(dplyr)
library(tidyr)
library(tidyverse)
library(latex2exp) #Convierte fórmulas LaTeX en expresiones gráficas de R. 
library(patchwork)
library(datos)     #Versiones en español de los datos que utilizaremos en este capítulo
library(grid)      #Se necesita para arrow()
library(pwr)       #Para la potencia
library(reshape)
library(plotly)

#Para generar videos interctivos: 
library(transformr)
library(av)
library(gifski)
library(gganimate)

2 Preliminares

A continuación, se enumeran algunos resultados que se aplicarán en este capítulo.Sus correspondientes demostraciones se pueden revisar en los siguientes documentos: Teoría de probabilidad y Distribución muestral.

2.0.1 Teoría de probabilidad

Example 2.1 (Convolución de binomiales) Sean \(0\leq p \leq 1\) y \(n, m \in \mathbb{N}\) dados.

\[\begin{eqnarray} \mathcal{B}(n,p) \ast \mathcal{B}(m,p) = \mathcal{B}(n+m,p).\label{ec-convolucion-dos-binomial} \end{eqnarray}\]

Es decir, la convolución de dos binomiales es también una binomial. Este resultado se puede visualizar en la figura de abajo.

#library(ggplot2)
#library(latex2exp) #Convierte fórmulas LaTeX en expresiones gráficas de R. Ver annotate

valores <- 0:30
p <- 0.5
  
dens1 <- dbinom(x = valores, size = 8, prob= p)
dens2 <- dbinom(x = valores, size = 26, prob= p)
dens3 <- dbinom(x = valores, size = 34, prob= p)

df0 <- tibble::data_frame(x = valores, dens1 = dens1, dens2 = dens2, dens3 = dens3)

ggplot(df0, aes(x = valores)) + 
  
       geom_col(aes(y=dens1), fill="red",alpha=0.1) +
  
       annotate("rect", xmin = 21.5, xmax = 28.5, ymin = 0.07, ymax = 0.11, fill= "#F8F9F9") +
  
       annotate("text", x = 4, y = 0.29, parse = TRUE, size = 4, fontface ="bold",
                 label=latex2exp::TeX("$n=8$", output= "character")
                ) +
              
       geom_col(aes(y=dens2), fill="orange",alpha=0.3)+
       
       annotate("text", x = 13, y = 0.17, parse = TRUE, size = 4, fontface ="bold",
                 label=latex2exp::TeX("$n=26$", output= "character")
                ) +
  
      geom_col(aes(y=dens3), fill="darkblue",alpha=10) +
      
      annotate("text", x = 25, y = 0.08, parse = TRUE, size = 4, fontface ="bold",
                label=latex2exp::TeX("$n=8+26=34$", output= "character")
               ) +
      
      annotate("text", x = 25, y = 0.1, parse = TRUE, size = 4, fontface ="bold",
                label=latex2exp::TeX("Convolution with:", output= "character")
               ) +
  
      geom_segment(aes(x = 25, xend = 20, y = 0.064,  yend = 0.04), #linetype = "dashed",  
                   colour="black", size=0.3, 
                   arrow = arrow(length = unit(0.3, "cm")))  +
      
      labs(x="Valores de la variable aleatoria", 
           y="Probabilidades", 
           title="Convolution of two Binomial distributions (p=0.5)"
          )

Definition 2.1 (Media y varianza empírica) Sean \(X_1, \ldots, X_n\) variables aleatorias. Entonces, la variable aleatoria

\[\overline{X}_{(n)}:=\frac{1}{n}(X_1 + \cdots + X_n)\]

se llama la media aritmética o media empírica de \(X_1, \ldots, X_n\) y a

\[S^2_{(n)}:= \frac{1}{n-1} \sum\limits_{k=1}^n (X_k-\overline{X}_{(n)})^2\]

se le llama varianza empírica.

Theorem 2.1 (Distribución t de Student) Sean \(X\), \(Y\), \(X_1, \ldots, X_n\) y \(Y_1, \ldots, Y_m\) variables aleatorias. Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) resp. \(S_{(m)}^2\) y \(\overline{Y}_{(m)}\) la varianza y media empírica de \(X_1, \ldots, X_n\) y de \(Y_1, \ldots, Y_m\), respectivamente. Supongamos que se tiene la independencia, por un lado, entre todas las \(X_i\); por otro lado, entre todas las \(Y_j\); y también entre \(X\) y \(Y\). Si \(\mathcal{T}(n)\) representa la distribución \(t\) de Student con \(n\) grados de libertad, entonces:

  1. Si \(X \stackrel{\atop d}{=} \mathcal{N}(0,1)\) y \(Y\stackrel{\atop d}{=} \chi^2(n)\), entonces, \[t:= \frac{X}{\sqrt{Y/n}} \stackrel{\atop d}{=} \mathcal{T}(n)\]

  2. Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu, \sigma^2)\) para cada \(i=1,\ldots, n\), entonces, se cumple que \[t:=\frac{\overline{X}_{(n)}- \mu}{S_{(n)} /\sqrt{n}} \stackrel{\atop d}{=} \mathcal{T}(n-1)\]

  3. Sea \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu_1, \sigma^2)\) para cada \(i=1,\ldots, n\) y \(Y_j \stackrel{\atop d}{=} \mathcal{N}(\mu_2, \sigma^2)\) para cada \(j=1,\ldots, m\). Si \(S_{(n,m)}^2\) es la llamada varianza muestral combinada, entonces,

\[t:= \frac{\left(\overline{X}_{(n)} - \overline{Y}_{(m)}\right)\, - \, (\mu_1-\mu_2)}{\sqrt{\frac{S_{(n,m)}^2}{n} \,+\, \frac{S_{(n,m)}^2}{m}}} \stackrel{\atop d}{=} \mathcal{T}(m+n-2), \qquad \mbox{con}\qquad S_{(n,m)}^2:= \frac{(n-1)S_{(n)}^2 + (m-1)S_{(m)}^2}{m+n-2}\]

A continuación, vemos algunas distribuciones \(t\) de Student.

a<- 100
mean_sim <- 0
varianza <- a/(a-2)
std_sim <- sqrt(varianza)

grosor = 1 # Grosor de las líneas de la  gráfica

ggplot(data = data.frame(u = 0:1000 / 100), mapping = aes(x = u)) +
  
  xlim(c(-20, 20))+
  labs(x = "Valores x",
       y = "Densidades f(x)",
       fill="",
       title = "Diferentes densidades t de Student") +
  
  stat_function(mapping = aes(colour = "Distbn. 1"),
                fun = dt,
                args = list(df = (1/100)*std_sim), size=grosor) +
  
  stat_function(mapping = aes(colour = "Distbn. 2"),
                fun = dt,
                args = list(df = (1/20)*std_sim), size=grosor) +
  
  stat_function(mapping = aes(colour = "Distbn. 3"),
                fun = dt,
                args = list(df = (1/5)*std_sim), size=grosor) +
  
  stat_function(mapping = aes(colour = "Distbn. 4"),
                fun = dt,
                args = list(df = (1/1)*std_sim), size=grosor)+
  
  scale_colour_manual(values = c("red", "blue", "black", "green")) +
  
  scale_color_discrete(name = expression(paste("t", " ", "con", ":")), 
                       labels = c(expression(paste(nu==1)),     
                                  expression(paste(nu==5)),   
                                  expression(paste(nu==20)),        
                                  expression(paste(nu==100)) 
                                 )
                      ) # Edit legend title and labels

Theorem 2.2 (Distribución F de Fisher) Sean \(X\), \(Y\), \(X_1, \ldots, X_n\) y \(Y_1\), \(\ldots\), \(Y_m\) variables aleatorias. Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) resp. \(S_{(m)}^2\) y \(\overline{Y}_{(m)}\) la varianza y media empírica de \(X_1, \ldots, X_n\) resp. \(Y_1, \ldots, Y_m\). Supongamos que se tiene la independencia, por un lado, entre todas las \(X_i\); por otro lado, entre todas las \(Y_j\); y también entre \(X\) y \(Y\). Si \(\mathcal{F}(m,n)\) representa la la distribución \(F\) de Fisher con \(m\) y \(n\) grados de libertad, entonces:

  1. Si \(X \stackrel{\atop d}{=} \chi^2(m)\) y \(Y \stackrel{\atop d}{=} \chi^2(n)\), entonces,

\[F:= \frac{X/m}{Y/n} = \frac{nX}{mY} \stackrel{\atop d}{=} \mathcal{F}(m,n)\]

  1. Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu_1, \sigma^2_1)\) para cada \(i=1,\ldots, n\) y \(Y_j \stackrel{\atop d}{=} \mathcal{N}(\mu_2, \sigma^2_2)\) para cada \(j=1,\ldots, m\), entonces,

\[F:= \frac{S_{(n)}^2 / \sigma_1^2}{S_{(m)}^2/\sigma^2_2} \stackrel{\atop d}{=} \mathcal{F}(n-1,m-1)\]

A continuación, vemos algunas distribuciones \(F\) de Fisher.

#library(dplyr)
#library(ggplot2)
#library(tidyr)

grosor = 1 # Grosor de las líneas de la  gráfica

data.frame(f = 0:1000 / 100) %>% 
           mutate(df_01_01 = df(x = f, df1 = 1, df2 = 1),
                  df_02_01 = df(x = f, df1 = 2, df2 = 1),
                  df_05_02 = df(x = f, df1 = 5, df2 = 2),
                  df_10_01 = df(x = f, df1 = 10, df2 = 1),
                  df_100_100 = df(x = f, df1 = 100, df2 = 100)
                  ) %>%
  
gather(key = "df", value = "density", -f) %>%

ggplot() +
  geom_line(aes(x = f, y = density, color = df), size=grosor) +
  
  scale_colour_manual(values = c("red", "blue", "black", "green", "grey")) +
  
  ylim(c(0, 2.2)) +
  xlim(c(0, 5)) +
  labs(x = "Valores x",
       y = "Densidades f(x)",
       fill="",
       title = "Diferentes densidades F de Fisher") +

  scale_color_discrete(name = expression(paste("F", " ", "con", " ", "parámetros", ":")), 
                       labels = c(expression(paste(m==1, ", ", " ", n==1)),     
                                  expression(paste(m==2, ", ", " ", n==1)),   
                                  expression(paste(m==5, ", ", " ", n==2)), 
                                  expression(paste(m==10, ", ", " ", n==1)),
                                  expression(paste(m==100, ", ", " ", n==100)) 
                                  )
                       ) # Edit legend title and labels

2.0.2 Distribución muestral

Definition 2.2 (Distribucion-muestral) La distribución de un estadístico muestral recibe el nombre de distribución muestral o distribución en el muestreo.

En la imagen de abajo se ilustra gráficamente este concepto.

Theorem 2.3 (Teorema central del límite de Moivre-Laplace) Sea \(X_1, \ldots, X_n\) una muestra aleatoria de una población que tiene distribución \(\mathcal{B}(n,p)\). Si \(\overline{p}_{(n)}\) representa la proporción muestral de éxitos en la muestra, entonces,

\[\frac{\overline{p}_{(n)} - p}{\sqrt{p(1-p)/n}}\; \xrightarrow[n \to \infty] {d}\; \mathcal{N}(0,1)\]

En la práctica, el teorema será válido si \(n\geq 30\) o si \(np\geq 5\) y \(n(1-p)\geq 5\). Comparése con la tabla A.2 que se encuentra en el apéndice A.7 para diagramas y tablas (véase la sección correspondiente a la Bibliografía).

De manera gráfica, esta aproximación se puede visualizar así:

En el video de abajo, se ilustra un ejemplo relacionado con este teorema.

Simulando muestras:

# Entrega la media de una muestra de tamaño N: 

xbarra <- function(FUN, N) {         # N es el tamaño de la muestra
           Valores <- FUN(N, 1, 0.5) # Valores k de las variables
           mean(Valores)             # Media de los valores
          }

# Seleccionar R muestras de tamaño N y, de cada una, obtener sus medias (vector de tamaño R). Entrega un data frame con las medias (llamada "muestra_N"): 

Media_Muestral <- function(FUN, N, R) {
                  name <- glue::glue("muestra_{N}")
                  rerun(R, xbarra(FUN, N)) %>% 
                  map(data.frame) %>% 
                  bind_rows() %>% 
                  dplyr::rename(!!quo_name(name) := ".x..i..")
                  }

# Seleccionar R muestras de K diferentes tamaños n=(N1, N2,...NK) y, de cada una, obtener sus medias. Entrega un adta frame de RxK filas  y 3 columnas ("simulaciones", "n" y "value=Medias")

montecarlo <- function(FUN, n, R) {
              map_dfc(n, ~ Media_Muestral(FUN, .x, R)) %>% 
              cbind(simulaciones = 1:R) %>% 
              pivot_longer(-simulaciones, names_to = "n", values_to = "value") %>% 
              mutate(n = str_extract(n, "\\d+"), n = as.numeric(n))
              }

# Al data frame anterior, se le agrega otra columna que contine los valores Z. Es decir, es un data frame de RxK filas y 4 columnas ("simulaciones", "n", "value=Medias" y "Z")

montecarlo_con_Z <- function(FUN, n, R, mu, sigma) {
                    montecarlo(FUN, n, R) %>%
                    dplyr::rename(Media = value) %>% 
                    group_by(n) %>% 
                    mutate(z = (Media - mu)/ (sigma/sqrt(n))) %>% 
                    ungroup() %>% 
                    mutate(n = factor(n, ordered = TRUE))
                    }

Distribución binomial:

#library(tidyverse)

FUN <- rbinom  # Bernoulli con parámetros m=1 y p=0.5
m=1
p=0.5
n <- c(5, 10, 20, 30, 50, 100, 200, 400, 600) # Tamaño muestral n
R <- 3000                 # Número de muestras de tamaño n que se van a seleccionar
mu <- m*p                 # Media de la variable
varianza <- m*p*(1-p)     # Varianza de la variable
sigma <- sqrt(varianza)   # Desviación de la variable

Muestreo <- montecarlo_con_Z(FUN, n, R, mu, sigma)

Muestreo %>% 
  ggplot(aes(z, fill = n)) +
  geom_density(aes(group = NA)) +
  gganimate::transition_states(n,
                               transition_length = 2,
                               state_length = 1
                              ) +
  
  stat_function(fun = dnorm, aes(color = 'Normal'),
                args = list(mean = 0, sd = 1),
                inherit.aes = FALSE,
                size=1.5
               ) +
  
  gganimate::enter_fade() +
  gganimate::exit_shrink() +
  
  labs(subtitle = "Sample size n= {closest_state}",
       title = "Distribution of Sample Mean: binomial",
       caption = "Theoretical distribution is standard normal",
       y = "Sample mean from binomial") +
  
 gganimate::view_follow() -> Densidad

# VIDEO OUTPUT:

#library(transformr)
#library(av)
#library(gifski)
#library(gganimate)

animate(Densidad +
        enter_fade() + 
        exit_fly(y_loc = 1), 
        # La velocidad de fotogramas de la animación en fotogramas/segundo (predeterminado=10):
        fps=5,  
        # La duración de la animación en segundos (sin configurar de forma predeterminada)
        #duration = 30 
        renderer = av_renderer()
       )

3 Pruebas de hipótesis

En capítulos anteriores, vimos que la información obtenida a partir de muestras aleatorias sirve para estimar los parámetros desconocidos de la población, mediante el cálculo de los estimadores puntuales o intervalos de confianza. En este capítulo, veremos que la información muestral también se puede utilizar para probar la validez de una afirmación}, conjetura* o hipótesis acerca del valor del parámetro de la población.

3.0.1 Hipótesis estadística, nula y alternativa

En general, una hipótesis es una explicación propuesta que puede, o no, ser cierta. Nuestra discusión se limitará a las hipótesis estadísticas.

Definition 3.1 (Hipótesis estadística) Una hipótesis estadística es una afirmación cuantitativa acerca de una o más poblaciones o, lo que es más frecuente, un conjunto de afirmaciones sobre uno o más parámetros de una o más poblaciones.

Las hipótesis estadísticas son de dos tipos: hipótesis nula e hipótesis alternativa.

Definition 3.2 (Hipótesis nula y alternativa) La hipótesis nula, que se simboliza por \(H_0\), es la hipótesis que se debe comprobar. La *hipótesis alternativa}, simbolizada por \(H_1\), es la hipótesis elegida como contraste a \(H_0\).

En general, si \(\theta\) es un parámetro poblacional y \(k\) es cualquier número real, entonces, la hipótesis alternativa \(H_1:\theta\ne k\) se llama alternativa bilateral y las hipótesis alternativas \(H_1:\theta<k\) y \(H_1:\theta>k\), alternativas unilaterales.

3.0.2 Pasos para realizar un prueba de hipótesis

Una prueba de hipótesis está dada por los siguientes pasos:

  1. Se parte de un modelo probabilístico asociado al problema, donde la variable de interés tiene una distribución que depende de un parámetro de interés \(\theta\). Según el problema se escoge una hipótesis (nula)} \(H_0: \theta \in \Theta_0\) junto con una alternativa* \(H_1: \theta \in \Theta_1\), donde \(\Theta_0 \cup \Theta_1\) es unión disyunta del espacio de parámeros \(\Theta\). Observe que \(\Theta_1\) no es necesariamente la alternativa lógica.

  2. El modelo estadístico correspondiente está formado por una muestra \(X=(X_1, \ldots, X_n)^t\) de tamaño \(n\), cuya distribución \(f_\theta\) debe ser conocida para cada \(\theta\) y calculable por lo menos para \(\theta \in \Theta_0\). De una observavión concreta resultan los datos \(x=(x_1, \ldots, x_n)^t\).

  3. Se escoge un estadístico \(T(X)\) unidimensional de tal manera que tiene sentido para el problema rechazar \(H_0\) con base en \(x\) si y sólo si \(T(x)\geq c\), donde \(c\) es determinado según uno de los siguientes criterios dados en las secciones 4.0.1, 5 ó 4.0.2.

Definition 3.3 Considere las notaciones señaladas en los párrafos anteriores. Entonces:

  1. A la variable \(T(X)\) se le llama estadístico de prueba.

  2. Al número \(c\), valor crítico.

  3. Al conjunto \(\{x\in \mathbb{R}^n \, / \, T(x)\geq c\}\) de todos los datos \(x\) para los cuales se rechaza \(H_0\) se le llama región crítica.

Considere el siguiente problema.

Example 3.1 Un productor de fármacos afirma que tiene una droga cuya aplicación debe aumentar la probabilidad para que nazca una niña, del porcentaje de 50% hasta 70%, por lo menos. Se quiere mirar la validez de esta afirmación. La solución podría consistir en los siguientes pasos:

Paso 1:

Se puede asociar al problema el modelo probabilístico, en el cual la variable de interés nacimiento de un bebé está representada por la variable aleatoria \(X\sim \mathcal{B}(1,p)\) con las codificaciones

\[X=\left\{ \begin{array}{ll} 1, & \hbox{si el bebé es una niña;} \\ 0, & \hbox{si el bebé es un niño.} \end{array} \right.\]

Paso 2:

Es decir, el parámetro de interés es \(\theta = p\), la probabilidad de que nazca una niña. Como hipótesis \(H_0\) se puede escoger \(p=0,5\) que refleja la situación normal, contra la alternativa \(H_1\) de que \(p=0,7\) que refleja la afirmación del productor.

Paso 3:

Para ver cómo realmente actúa la droga en cuestión, se escogen, digamos \(n=20\) mujeres, independientemente. Se aplica la droga a cada una de ellas y se observa, después si la mamá \(i\) da a luz a una niña o a un niño. Así se obtiene el modelo estadístico correspondiente, dado por una muestra \(X=(X_1, \ldots, X_n)^t\) de tamaño \(n=20\), con variables \(X_i\sim \mathcal{B}(1,p)\). Para un experimento concreto se obtienen los datos \(x=(x_1, \ldots, x_n)^t\), siendo cada \(x_i\in \{0,1\}\).

Paso 4:

Se apuntará \(T(x)= \sum\limits_{i=1}^n x_i\), el número de las niñas entre los \(n=20\) bebés nacidos, que es un valor del estadístico \(T(X) = \sum\limits_{i=1}^n X_i \sim \mathcal{B}(n,p)\). Compárese con el ejemplo 2.1.

Paso 5:

Intuitivamente se rechazará la hipótesis \(H_0\) si \(T(x)\geq c\) para un valor de \(c\) suficientemente grande, (o sea, si hay muchas niñas).

  1. Es claro que para \(T(x)=20\) se rechazará \(H_0\) en favor de la afirmación del productor.

  2. Para \(T(x)=19\) también se rechazará \(H_0\) en favor de la afirmación del productor.

  3. Pero, ¿con cuál número empiezan las dudas? ¿Desde cuál número se va a creer más en \(H_0\) que en \(H_1\)? Para dar respuestas a estas inquietudes, véase los criterios de las secciones siguientes.\(\blacktriangleleft\)

4 Tipos de errores

4.0.1 Criterio del error de tipo I

Se escoge un \(c\) tal que, para cierto \(\alpha \in (0,1)\) fijo se cumple que

\[\begin{equation} P\big(T(X)\geq c \, / \, H_0\big) \;= \; \sup\limits_{\theta \in \Theta_0} P\big(T(X)\geq c \, / \, \theta\big) \leq \alpha \tag{4.1} \end{equation}\]

y que esta probabilidad sea lo más cercana posible a \(\alpha\). Aquí:

  • \(T(X)\geq c \, / \, H_0\) significa rechazar \(H_0\) a pesar de que \(H_0\) fuese correcta, una decisión errónea del investigador y es llamado error de tipo I.

  • \(T(X)\geq c \, / \, \theta\) significa rechazar \(H_0\) a pesar de que \(\theta\) está en \(\Theta_0\).

Entonces, escogiendo \(c\) como antes, significa que se controla la probabilidad del error de tipo I por medio del llamado nivel de significancia \(\alpha\). También es usual decir que se rechaza al nivel de \(\alpha\). Para la práctica, los niveles más usados son \(\alpha= 5\%\), \(1\%\) ó \(0.1\%\).

Example 4.1 Considere la situación planteada en el ejemplo 3.1. En ese ejemplo, ya hemos dicho que el estadístico de prueba es

\[T(X) = \sum\limits_{i=1}^n X_i \sim \mathcal{B}(20,p)\]

y que \(H_0: p=0,5\). Ahora, utilizando una tabla binomial \(\mathcal{B}(20;0,5)\), podemos determinar los posibles valores críticos \(c\) junto con las probabilidades del error de tipo I. En la tabla de abajo se presenta esta información.

Entonces, la condición (4.1) se interpreta de la siguiente manera:

  • Se rechaza \(H_0\) al nivel de 5% si \(T(x) \in \{15,16, \ldots, 20\}\).

  • Se rechaza \(H_0\) al nivel de 1% si \(T(x) \in \{16,17, \ldots, 20\}\).

  • Se rechaza \(H_0\) al nivel de 0,1% si \(T(x) \in \{18,19, 20\}\).

Las situaciones anteriores se pueden visualizar en las figuras de abajo.

Las gráficas anteriores se generaron con los siguientes códigos que se indican abajo:

#library(ggplot2)
#library(tidyverse)
#library(latex2exp) #Convierte fórmulas LaTeX en expresiones gráficas de R. Ver annotate

k <- seq(0, 20, 1)
y <- dbinom(k,20,0.5)
dat <- cbind.data.frame(k,y)
alfa <- 0.05

b1 <- dat %>% 
  ggplot() +
  
  geom_col(aes(x = k, y=y, fill = k > qbinom(alfa,20, 0.5,lower.tail=F))#, color = 'black'
           )  +
  
  xlim(0,23) + ylim(-.015,.18) +
  
  annotate("rect", xmin =15, xmax = 19, ymin = 0.04, ymax = 0.06, fill= "lightyellow") +
  
  annotate("text", x = 4, y = 0.10, parse = TRUE, size = 4, fontface ="bold",
           label=TeX("$P(T(x) < c) > \\alpha$;", output= "character"), colour="blue"
          ) +
  
  annotate("text", x = 4, y = 0.085, parse = TRUE, size = 3, fontface ="bold",
           label=latex2exp::TeX("$c=0, 1, 2, \\ldots, 13, 14$ ", output= "character"), colour="blue"
          ) +
  
  annotate("text", x = 18, y = 0.10, parse = TRUE, size = 4, fontface ="bold",
           label=latex2exp::TeX("$P(T(x) \\geq c) \\leq \\alpha;$ ", output= "character"), colour="red"
           )+
  
  annotate("text", x = 18, y = 0.085, parse = TRUE, size = 3, fontface ="bold",
           label = latex2exp::TeX("$c= 15, 16, 17, 18, 19, 20$", output= "character"), colour="red"
          ) +
  
  annotate("text", x = 17, y = 0.05, parse = TRUE, size = 4, fontface ="bold",
           label = latex2exp::TeX("Area: $\\alpha= 0.05$", output= "character"), colour="red"
          ) +

  geom_vline(aes(xintercept=14.5), linetype="solid", size=1, colour="blue") +
  
  geom_hline(aes(yintercept=0), linetype="solid", size=1, colour="black") +
  
  annotate("text", label = "No rechazar", x = 10, y = -.01, size = 4, colour = "blue") +
  
  annotate("text", label = "Rechazar", x = 17, y = -.01, size = 4, colour = "red") +
  
  labs(x="Valores", y="Probabilidades", title="Fig. 1: T(X) es binomial(n=20, p=0.5); nivel=5%") +
  
  theme_minimal()+                             
  
  theme(legend.position="none") + 
  
  scale_fill_manual(values = c("lightblue", "red")) + #Cambiar los colores
  
  geom_segment(aes(x = 17, xend = 15.5, y = 0.0425,  yend = 0.01), #linetype = "dashed",  
               colour="black", size=0.3, 
               arrow = arrow(length = unit(0.3, "cm"))
              ) 
b1
#library(ggplot2)
#library(tidyverse)
#library(latex2exp) #Convierte fórmulas LaTeX en expresiones gráficas de R. Ver annotate

k <- seq(0, 20, 1)
y <- dbinom(k,20,0.5)
dat <- cbind.data.frame(k,y)
alfa <- 0.01
  
b2 <- dat %>% 
  ggplot() +
  
  geom_col(aes(x = k, y=y, fill = k > qbinom(alfa,20, 0.5,lower.tail=F))#, color = 'black'
           )  +
  
  xlim(0,23) + ylim(-.015,.18) +
  
  annotate("rect", xmin =16, xmax = 20, ymin = 0.04, ymax = 0.06, fill= "lightyellow") +
  
  annotate("text", x = 4, y = 0.10, parse = TRUE, size = 4, fontface ="bold",
           label=latex2exp::TeX("$P(T(x) < c) > \\alpha$;", output= "character"), colour="blue"
          ) +
  
  annotate("text", x = 4, y = 0.085, parse = TRUE, size = 3, fontface ="bold",
           label=latex2exp::TeX("$c=0, 1, 2, \\ldots, 13, 14, 15$ ", output= "character"), colour="blue"
          ) +
  
  annotate("text", x = 18.5, y = 0.10, parse = TRUE, size = 4, fontface ="bold",
           label=latex2exp::TeX("$P(T(x) \\geq c) \\leq \\alpha;$ ", output= "character"), colour="red"
           )+
  
  annotate("text", x = 18.5, y = 0.085, parse = TRUE, size = 3, fontface ="bold",
           label = latex2exp::TeX("$c= 16, 17, 18, 19, 20$", output= "character"), colour="red"
          ) +
  
  annotate("text", x = 18, y = 0.05, parse = TRUE, size = 4, fontface ="bold",
           label = latex2exp::TeX("Area: $\\alpha= 0.01$", output= "character"), colour="red"
          ) +
  
  geom_vline(aes(xintercept=15.5), linetype="solid", size=1, colour="blue") +
  
  geom_hline(aes(yintercept=0), linetype="solid", size=1, colour="black") +
  
  annotate("text", label = "No rechazar", x = 10, y = -.01, size = 4, colour = "blue") +
  
  annotate("text", label = "Rechazar", x = 18, y = -.01, size = 4, colour = "red") +
  
  labs(x="Valores", y="Probabilidades", title="Fig. 2: T(X) es binomial(n=20, p=0.5); nivel=1%") +
  
  theme_minimal()+                              #Etiquetas

  theme(legend.position="none") +
  
  scale_fill_manual(values = c("lightblue", "red")) + #Cambiar los colores
   
  geom_segment(aes(x = 18, xend = 16.5, y = 0.0415,  yend = 0.0015), #linetype = "dashed",  
               colour="black", size=0.3, 
               arrow = arrow(length = unit(0.3, "cm"))
              ) 
b2
#library(ggplot2)
#library(tidyverse)
#library(latex2exp) #Convierte fórmulas LaTeX en expresiones gráficas de R. Ver annotate

k <- seq(0, 20, 1)
y <- dbinom(k,20,0.5)
dat <- cbind.data.frame(k,y)
alfa <- 0.001
  
b3 <- dat %>%
  ggplot() +
  
  geom_col(aes(x = k, y=y, fill = k > qbinom(alfa,20, 0.5,lower.tail=F))#,color = 'black'
           ) +
  
  xlim(0,23) + ylim(-.015,.18) +
  
  annotate("rect", xmin =18, xmax = 22, ymin = 0.04, ymax = 0.06, fill= "lightyellow") +
  
  annotate("text", x = 4, y = 0.10, parse = TRUE, size = 4, fontface ="bold",
           label=latex2exp::TeX("$P(T(x) < c) > \\alpha$;", output= "character"), colour="blue"
          ) +
  
   annotate("text", x = 4, y = 0.085, parse = TRUE, size = 3, fontface ="bold",
           label=latex2exp::TeX("$c=0, 1, 2, \\ldots, 13, 14, 15, 16, 17$ ", output= "character"), colour="blue"
          ) +
  
  annotate("text", x = 20, y = 0.10, parse = TRUE, size = 4, fontface ="bold",
           label=latex2exp::TeX("$P(T(x) \\geq c) \\leq \\alpha;$ ", output= "character"), colour="red"
           )+
  
  annotate("text", x = 20, y = 0.085, parse = TRUE, size = 3, fontface ="bold",
           label = latex2exp::TeX("$c= 18, 19, 20$", output= "character"), colour="red"
          ) +
  
  annotate("text", x = 20, y = 0.05, parse = TRUE, size = 4, fontface ="bold",
           label = latex2exp::TeX("Area: $\\alpha= 0.001$", output= "character"), colour="red"
          ) +
  
  geom_vline(aes(xintercept=17.5), linetype="solid", size=1, colour="blue") +
  
  geom_hline(aes(yintercept=0), linetype="solid", size=1, colour="black") +
  
  annotate("text", label = "No rechazar", x = 10, y = -.01, size = 4, colour = "blue") +
  
  annotate("text", label = "Rechazar", x = 21, y = -.01, size = 4, colour = "red") +
  
  labs(x="Valores", y="Probabilidades", title="Fig. 3: T(X) es binomial(n=20, p=0.5); nivel=0.1%") +
  
  theme_minimal()+                              #Etiquetas
  
  theme(legend.position="none") +
  
  scale_fill_manual(values = c("lightblue", "red")) + #Cambiar los colores
    
  geom_segment(aes(x = 20, xend = 18.5, y = 0.0425,  yend = 0.001), #linetype = "dashed",  
               colour="black", size=0.3, 
               arrow = arrow(length = unit(0.3, "cm"))
              ) 
b3

En resumen, podemos formular las siguientes conclusiones:

  • Si se observan \(t=0, 1, 2, \ldots, 14\) nacimientos de niñas, entonces se acepta \(H_0:p=0,5\), rechazando la afirmación del productor.

  • Si se observan \(t=15\) nacimientos de niñas, esto puede ser un indicio para que el productor tenga la razón.

  • Si se observan \(t=16\) ó \(17\), esto se interpreta como desviación significativa de \(H_0\), creyendo más en la afirmación del productor.

  • Y, finalmente, si se observan por lo menos \(t=18\), entonces se acepta de manera muy significativa la afirmación del productor.\(\blacktriangleleft\)

4.0.2 Criterio del error de tipo II

Hasta ahora se ha usado solamente un criterio sobre un tipo de error que puede cometer el investigador. Pero para llegar a pruebas de hipótesis más confiables, se debe tener en cuenta también el otro tipo de error posible. Este criterio considera la posibilidad de controlar los dos tipos de errores.

Ahora se trata de escoger un valor crítico \(c\) tal que se cumpla la expresión (4.1) y que, además, para cierto \(\beta\in (0,1)\) fijo, se cumpla:

\[\begin{equation} P\big(T(X)<c \, / \, H_1\big) \;= \; \sup\limits_{\theta \in \Theta_1} P\big(T(X) < c \, / \, \theta\big) \leq \beta \tag{4.2} \end{equation}\]

y que esta probabilidad sea lo más cercana posible a \(\beta\) (lo más pequeño posible). Aquí:

  1. \(T(X)< c \, / \, H_1\) significa aceptar \(H_0\) a pesar de que \(H_1\) fuese correcta, una decisión errónea del investigador y es llamado error de tipo II.

  2. \(T(X)< c \, / \, \theta\) significa aceptar \(H_0\) a pesar de que \(\theta_1\) está en \(\Theta_1\).

4.0.3 Relación entre los errores de tipo I y tipo II

Sería deseable asegurar que la probabilidad del error de tipo II esté cerca de 0. Pero, desafortunadamente, no es posible controlar las probabilidades de ambos errores al mismo tiempo (si el tamaño \(n\) de la muestra es fijado de antemano): ambos errores son indirectamente proporcionales (como se ilustra en la figura de abajo).

Comenzaremos creando los datos para dos distribuciones (en nuestro caso van a ser normales) y tres polígonos que necesitaremos (para alfa, beta y 1-beta).

#library(tidyverse)
#library(datos) #versiones en español de los datos que utilizaremos en este capítulo
#library(ggplot2)
#library(grid) # need for arrow()

m1 <- 0     # mu H0
sd1 <- 1.5  # sigma H0
m2 <- 3.5   # mu HA
sd2 <- 1.5  # sigma HA
 
z_crit <- qnorm(1-(0.05/2), m1, sd1)
 
#Establecer longitud de las colas
min1 <- m1-sd1*4
max1 <- m1+sd1*4
min2 <- m2-sd2*4
max2 <- m2+sd2*4   

#Crear una secuencia x
x <- seq(min(min1,min2), max(max1, max2), .01)
#Generar distribución normal No. 1
y1 <- dnorm(x, m1, sd1)
#Colocar en un data.frame
df1 <- data.frame("x" = x, "y" = y1)
#Generar distribución normal No. 2
y2 <- dnorm(x, m2, sd2)
#Colocar en un data.frame
df2 <- data.frame("x" = x, "y" = y2)
 
#Polígono para alpha
y.poly <- pmin(y1,y2)
poly1 <- data.frame(x=x, y=y.poly)
poly1 <- poly1[poly1$x >= z_crit, ] 
poly1<-rbind(poly1, c(z_crit, 0))  # add lower-left corner
 
#Polígono para beta
poly2 <- df2
poly2 <- poly2[poly2$x <= z_crit,] 
poly2<-rbind(poly2, c(z_crit, 0))  # add lower-left corner
 
#Polígono para la potencia = 1-beta
poly3 <- df2
poly3 <- poly3[poly3$x >= z_crit,] 
poly3 <-rbind(poly3, c(z_crit, 0))  # add lower-left corner
 
#Combinar los polígonos 
poly1$id <- 3 #alpha, da el número más alto para que sea la capa superior
poly2$id <- 2 #beta
poly3$id <- 1 #potencia 1 - beta
poly <- rbind(poly1, poly2, poly3)
poly$id <- factor(poly$id,  labels=c("power","beta","alpha"))

Ahora, con todos los datos que necesitamos, crearemos el diagrama deseado.

Una solución al dilema mencionado anteriormente es diseñar la prueba de tal manera que el error de tipo II no sea tan grave. Es decir, se deben escoger \(H_0\) y \(H_1\) adecuadamente. Otra solución, a veces posible, es aumentar \(n\) hasta que sí se puedan cumplir (4.1) y (4.2). En este caso, como \(n\) es grande, se usan aproximaciones de la distribución del estadístico de prueba, preferiblemente con una distribución normal.

Example 4.2 Considere nuevamente la situación planteada en el ejemplo 3.1. Siguiendo el criterio de la sección 4.0.2, se busca ahora el tamaño muestral \(n\) más grande posible y el valor \(c\), tales que se cumplan simultaneamente las dos condiciones siguientes:

  • Condición 1: \(\quad P\big(T(X)\geq c \, / \, p=0,5\big) \; = \; \alpha\), por ejemplo, con \(\alpha=0,01\);

  • Condición 2: \(\quad P\big(T(X)<c \, / \, p=0,7\big) \;= \; \beta\), por ejemplo, con \(\beta=0,05\).

Para \(n\) grande, podemos aplicar el teorema de aproximación de la binomial a la normal. Véase el teorema 2.3. En este caso, la probabilidades anteriores se pueden reescribir de la siguiente manera:

Teniendo en cuenta la condición 1:

\[0,01 \;= \; P\big(T(X)\geq c \, / \, p=0,5\big)\;= \; 1-P\big(T(X)\leq c-1 \, / \, p=0,5\big) \;= \; 1- \Phi\left(\frac{c-0,5n-0,5}{\sqrt{0,25 n}}\right)\]

Al aplicar la tabla normal, obtenemos: \[\begin{equation} \frac{c-0,5n-0,5}{\sqrt{0,25 n}} \;= \; 2,325 \tag{4.3} \end{equation}\]

Teniendo en cuenta la condición 2:

\[0,05 \;= \; P\big(T(X)\leq c-1 \, / \, p=0,7\big)\;= \; \Phi\left(\frac{c-0,5n-0,5}{\sqrt{0,21 n}}\right)\]

Al aplicar la tabla normal, obtenemos:

\[\begin{equation} \frac{c-0,7n-0,5}{\sqrt{0,21 n}}\;= \; -1,64 \tag{4.4} \end{equation}\]

Al resolver simultaneamente las dos ecuaciones (4.3) y (4.4), obtenemos que se deben escoger \(n=92\) y \(c=58\).

En conclusión:

  1. Si se observan \(t=58, 59, \ldots, 92\) nacimientos de niñas, entonces se rechaza \(H_0:p=0,5\), aceptando la afirmación del productor y cometiendo un error de tipo I con una probabilidad máxima de un 1%.

  2. Si se observan \(t=0, 1, \dots, 57\) nacimientos de niñas, entonces no se acepta la afirmación del productor y se comete un error de tipo II con una probabilidad máxima de 5%. \(\blacktriangleleft\)

5 Criterio del P-valor

5.0.1 Definición

Este criterio es muy importante para la práctica y está muy relacionado con el criterio del error de tipo I. Véase la sección 4.0.1. Como la escogencia de un nivel \(\alpha\), desde un principio, depende mucho de la opinión subjetiva, se calcula alternativamente el valor \(P\big(T(X)\geq t\, / \, H_0\big)\) para \(t=T(x)\), que resulta de los datos \(x\). A este valor se le llama \(P\)-valor (o valor \(P\)), correspondiente a la hipótesis \(H_0\) y a la observación concreta \(x\).

Definition 5.1 (P-valor) El \(P\)-valor (o valor \(P\)) es el mínimo nivel de significancia en el cual la hipótesis nula \(H_0\) sería rechazada cuando se utiliza un procedimiento de prueba especificado con un conjunto dado de información.

5.0.2 Fórmula del \(P\)-valor

El \(P\)-valor que se calcula dependerá siempre de la distribución utilizada (normal, \(t\) de Student, Chi-cuadrada o \(F\) de Fisher) y del tipo de prueba que vayamos a realizar (prueba de una cola a la izquierda, prueba de una cola a la derecha o prueba de dos colas), como se presenta en el siguiente teorema:

Theorem 5.1 (P-valor) Supongamos que la distribución muestral del estadístico de prueba \(X\) es la normal estándar, \(t\) de Student, \(F\) de Fisher o Chi-cuadrada, en donde los grados de libertad de las últimas tres distribuciones dependerán de los supuestos que se deben verificar para realizar un determinado procedimiento de prueba. Si \(x\) es el valor calculado de \(X\), entonces el \(P\)-valor es:

\[\text{$P$-valor} \;= \; \begin{cases} P(X\leq x), & \text{para una prueba de una cola a la izquierda}, \\ P(X\geq x), & \text{para una prueba de una cola a la derecha}, \\ 2\,P(X\geq |x|),& \text{para una prueba de dos colas}. \end{cases} \]

Proof:
Ver la demostración en la literatura citada.\(\blacksquare\)

5.0.3 Reglas de decisión

Una vez que el \(P\)-valor haya sido calculado, como se explicó en el teorema 5.1, la conclusión en cualquier nivel de significancia \(\alpha\) particular resulta de comparar el \(P\)-valor con \(\alpha\). Así, entonces:

  1. Si \(P\)-valor \(\leq \alpha\), entonces, rechace \(H_0\) al nivel \(\alpha\).

  2. Si \(P\)-valor \(> \alpha\), entonces, no rechace \(H_0\) al nivel \(\alpha\).

Remark:

De acuerdo al criterio del error de tipo I , un \(P\)-valor se interpreta con:

  • \(\text{$P$-valor} \leq 0.1\%\) como desviación muy significativa de \(H_0\).

  • \(0.1\% < \text{$P$-valor} \leq 1\%\) como desviación significativa de \(H_0\).

  • \(1\% < \text{$P$-valor} < 5\%\) como desviación casi significativa de \(H_0\).

A menor \(P\)-valor, mayor tranquilidad para rechazar la hipótesis \(H_0\), porque la probabilidad de cometer un error de tipo I será más pequeña. Por el contrario, para un \(P\)-valor \(>5\%\), se acepta la hipótesis \(H_0\) en el sentido de que no se pudo encontrar una desviación algo significativa. Lo más conveniente, es hablar de no rechazar \(H_0\).

Example 5.1 Considere nuevamente la situación planteada en el ejemplo 3.1. Sabemos que \(n=20\) y que \(H_0:p=0,5\). Supongamos que tenemos una prueba de una cola a la derecha y que la proporción muestral de niñas es de \(\overline{p}= 0,30\). Se puede observar que podemos aplicar el teorema de Moivre-Laplace. Véase el teorema 2.3. Por tanto, un valor del estadístico de prueba \(Z\) será

\[Z \;=\; \frac{0,3 - 0,5}{\sqrt{(0,5)(1-0,5)/20}} \;= \; -1,79\]

Por consiguiente, de la tabla normal y teniendo en cuenta el teorema 5.1, el \(P\)-valor es:

\[\text{$P$-valor}\;= \; P(Z\geq -1,79) \;= \; 1- 0,0367 \;= \; 0,9633\]

Por tanto, de acuerdo con la definición 5.1, \(H_0\) no se rechazaría para cualquier nivel \(\alpha\). \(\blacktriangleleft\)

6 Medición de la potencia de un contraste

Para una prueba de hipótesis como la descrita en la sección 3.0.2 puede ser conveniente analizar la llamada función potencia.

Definition 6.1 (Potencia de una prueba) Para todo \(\theta \in \Theta\), la función mostrada abajo recibe el nombre de función potencia:

\[\mathcal{P}(\theta) \;= \; P\big(T(X) \geq c \, / \, \theta\big)\]

Remark:

Si \(\mathcal{P}\) es creciente en \(\theta\) y \(\theta_0<\theta_1\), entonces son equivalentes las dos pruebas siguientes:

  1. \(H_0: \theta=\theta_0\) vs \(H_1: \theta=\theta_1\).

  2. \(H_0: \theta\leq \theta_0\) vs \(H_1: \theta\geq \theta_1\).

porque, en este caso, valen

\[\sup\limits_{\theta\leq \theta_0} \mathcal{P}(\theta) = \mathcal{P}(\theta_0), \qquad \sup\limits_{\theta\geq \theta_1} [1-\mathcal{P}(\theta)] = 1-\mathcal{P}(\theta_1)\]

Además, a mayor \(n\), mayor es la pendiente de la función de potencia entre \(\theta_0\) y \(\theta_1\). En la figura de abajo aparece una gráfica típica de una función potencia.

Example 6.1 Se sabe que cierto tipo de metal no presenta daños visibles el 25% de las veces en que se pone a prueba a temperaturas de 150 grados centígrados. Con el fin de aumentar este porcentaje, se ha propuesto un tipo de pintura para el metal. Sea \(p\) la proporción de todas las muestras de metales sometidos a temperaturas de 150 grados centígrados que no presentan daño visible con esta nueva pintura. Las hipótesis son \(H_0: p=0.25\) (sin mejoría) vs \(H_1: p>0.25\). Para el experimento se han seleccionado \(n=20\) muestras de metal con esta nueva pintura. De manera intuitiva, supongamos que \(H_0\) debe ser rechazada si un número importante de los metales no muestra daño (digamos, más de 7) y respóndanse las siguientes cuestiones:

  1. Si \(X\) es la variable aleatoria que representa el número de metales de la muestra sin daño visible, ¿cuál es la distribución de \(X\) cuando \(H_0\) es verdadera?

  2. Halle \(\alpha(0.25)\), es decir, la probabilidad de cometer un error de tipo I cuando \(p=0.25\). Interprete su respuesta.

  3. Halle \(\beta(0.3)\), es decir, la probabilidad \(\beta\) de cometer un error de tipo II cuando \(p=0.3\). Interprete su respuesta.

  4. Halle \(\beta(p)\) y \(\mathcal{P}(p)\) para cada uno de los siguientes valores de \(p\): 0.0, 0.1, 0.2, \(\ldots\), 0.8, 0.9 y 1.0. Grafique ambas funciones.

Solution:

Inciso (a) :

Cuando \(H_0\) es verdadera, \(X\) tiene distribución binomial con parámetros \(n=20\) y \(p=0,25\).

Inciso (b):

Con base en el inciso (a), tenemos que:

\[\begin{eqnarray*} \alpha &=& P(\text{error tipo I}) \;= \; P(\text{$H_0$ es rechazada cuando es verdadera}) \\ &=& P(\text{$X\geq 8$ cuando $X$ es binomial con $n=20$ y $p=0.25$})\\ &=& 1\, - \, B(7; 20; 0.25) \;= \; 1- 0.898 \;= \; 0.102 \end{eqnarray*}\]

Es decir, cuando \(H_0\) es verdadera, aproximadamente 10% de todos los experimentos formados por 20 muestras de metal con la nueva pintura podrían llevar a que \(H_0\) sea incorrectamente rechazada.

\(p\) \(\alpha(p)\)
0.00 0.000
0.10 0.000
0.20 0.032
0.25 0.102
0.30 0.228
0.40 0.584
0.50 0.868
0.60 0.979
0.70 0.999
0.80 1.000
0.90 1.000
1.00 1.000

Inciso (c):

El valor de \(\beta\) cuando \(p=0,3\) es:

\[\begin{eqnarray*} \beta(0,3) &=& P(\text{error tipo II cuando $p=0,3$}) \\ &=& P(\text{$H_0$ no es rechazada cuando es falsa})\\ &=& P(\text{$X\leq 7$ cuando $X$ es binomial con $n=20$ y $p=0,3$})\\ &=& B(7; 20; 0,3) \;= \; 0,772 \end{eqnarray*}\]

Cuando \(p\) es en realidad \(p=0,3\), en lugar de 0,25 (una pequeña desviación de \(H_0\)), casi 77% de todos los experimentos formados por 20 muestras de metal con la nueva pintura podrían llevar a que \(H_0\) no fuese incorrectamente rechazada.

Inciso (d):

La siguiente tabla muestra \(\beta\) para los valores seleccionados de \(p\) (cada uno calculado para la región de rechazo \(X\geq 8\)):

\(p\) \(\beta(p)\) \(\mathcal{P}(p)= 1- \beta(p)\)
0.0 1.000 0.000
0.1 1.000 0.000
0.2 0.968 0.032
0.3 0.772 0.228
0.4 0.416 0.584
0.5 0.132 0.868
0.6 0.021 0.979
0.7 0.001 0.999
0.8 0.000 1.000
0.9 0.000 1.000
1.0 0.000 1.000

Y abajo se muestran las respectivas gráficas.

library(ggplot2)
p2 <- seq(from=0, to=1, by=0.001)
f <- round(pbinom(k, n, p2),3)
cf <- 1-f
Tabla <- as.data.frame(cbind(p2, f, cf))

Tabla %>% 
  ggplot()+
  
  geom_point(aes(x=p2, y=f, color="beta"), size=1.5) +
  
  geom_point(aes(x=p2, y=cf, color="potencia"), size=1.5) + 
  
  labs( x="Probabilidad p", y=""
        #y= expression("Potencia="~ 1- beta(p))
        ) +
  labs(color = "Logits")+
  #ylim(0, 100)+
  facet_wrap(. ~ "Probabilidad de cometer error tipo II vs Potencia") +    
  
  theme_bw(base_size = 12) +
  #theme(legend.position = "none")+
  
  scale_color_manual(values = c("beta" = "darkblue","potencia" = "red")) +
  
  scale_color_discrete(name = expression(paste("Convenciones", ":")), 
                       labels = c(expression(paste(beta(p))),                                                                            expression(paste(1-beta(p)))
                                 )
                       )

Se puede observar que \(\beta\) disminuye (o sea, que la potencia aumenta) a medida que el valor de \(p\) se aleja a la derecha del valor nulo de 0.25. De manera intuitiva, cuanto mayor sea la desviación de \(H_0\) es menos probable que dicha desviación no sea detectada. \(\blacktriangleleft\)

7 Relaciones entre la potencia, el tamaño de los efectos y el tamaño de la muestra

7.0.1 Introducción

Al realizar la prueba \(t\) de Student para comparar las medias entre dos grupos, es importante (e interesante) determinar qué tanto influyen el tamaño de los efectos y/o los tamaños muestrales desiguales de los grupos que se comparan sobre la potencia de la prueba. Formalmente, la potencia se puede definir como la probabilidad de rechazar la hipótesis nula cuando la hipótesis alternativa es verdadera. De manera informal, la potencia es la capacidad de una prueba estadística para detectar un efecto, si el efecto realmente existe. Generalmente, desequilibrios muy grandes no tendrán una potencia estadística adecuada para detectar (incluso tamaños de efecto grandes asociados con un factor), lo que lleva a una alta probabilidad de cometer un error de tipo II. Para justificar este razonamiento, puede tener en cuenta los siguientes ejemplos que se indican abajo.

7.0.2 Variando los tamaños de los efectos

Example 7.1 Para cada tamaño fijo de los efectos \(d\), la idea ahora es modelar la relación entre el tamaño muestral y la potencia (manteniendo constante el nivel de significancia \(\alpha = 0.05\)). En las figuras de abajo se visualizan los resultados para tamaño de efecto muy pequeño (\(d=0.1\)), pequeño (\(d=0.2\)), mediano (\(d=0.5\)) y grande (\(d=0.8\)).

Primera gráfica

#Se necesita el paquete pwr 
if(!require(pwr)){install.packages("pwr");library("pwr")}

# t-TEST
# Se aplicará power.t.test del paquete stats (ya en R). Calcula la potencia de la prueba t de una o dos muestras, o determina los parámetros para obtener un valor particular de la potencia.

d<-seq(.1,2,by=.1) # 20 tamaños de los efectos
n<-1:150 # Tamaños muestrales

t.test.power.effect <-as.data.frame(do.call("cbind",lapply(1:length(d),function(i)
  {
        sapply(1:length(n),function(j)
        {
            power.t.test(n=n[j],d=d[i],sig.level=0.05,power=NULL,type= "two.sample")$power
        })
    })))

# Si algunas potencias no se pueden calcular, se ajustan a cero:
t.test.power.effect[is.na(t.test.power.effect)] <- 0 
colnames(t.test.power.effect)<-paste (d,"effect size")
#Graficando los resultados

prueba <-t.test.power.effect #data frame de 150 X 20 (para graficar)
cuts_num<-c(2,5,8) # cortes

#Cortes basados en: Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences (2nd ed.). Hillsdale, NJ: Lawrence Erlbaum Associates, Publishers.
cuts_cat<-c("pequeño","medio","grande") 

columnas <- 1:ncol(prueba) #Lista de los valores 1:20
color_linea<-rainbow(length(columnas), alpha=.5) # Lista de 20 colores
grosor_linea=3 # Grosor de la línea

#Para el tipo de línea: (“blank”, “solid”, “dashed”, “dotted”, “dotdash”, “longdash”, “twodash”) ó  (0, 1, 2, 3, 4, 5, 6). 
#Note que lty = “solid” is idéntica a lty=1.

tipo_linea <- rep(1,length(color_linea))        #Repetir length(color)=20 veces el 1
tipo_linea[cuts_num]<-c(2:(length(cuts_num)+1)) #Asignar 2, 3, 4 en las posiciones 2, 5, 8 de tipo_linea

#Resaltar posiciones importantes
cuts_num<-c(2,5,8) # Cortes

#Cortes basados en: Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences (2nd ed.). Hillsdale, NJ: Lawrence Erlbaum Associates, Publishers.
cuts_cat<-c("pequeño","medio","grande") 
color_linea[cuts_num]<-c("black")

efecto <- d # Listado de los 20 valores de 20
efecto[cuts_num] <- cuts_cat  #Reemplazar en "efecto" las posiciones cuts_num (2, 5, 8) por las categorías de cuts_cat
par(fig=c(0,.8,0,1),new=TRUE)

#Gráfica
plot(1, type="n", #no produce puntos ni líneas
     frame.plot=FALSE, 
     xlab="Tamaño muestral", ylab="Potencia", 
     xlim=c(1,150),  ylim=c(0,1), 
     main="t-Test", axes = FALSE)

#Editando los ejes, grid, etc.
abline(v=seq(0,150,by=10), col = "lightgray", lty = "dotted") # Grid vertical
abline(h=seq(0,1,by=.05), col = "lightgray", lty = "dotted")  # Grid horizontal
axis(1,seq(0,150,by=10)) # Números en eje X
axis(2,seq(0,1,by=.05))  # Números en eje Y

#Plot de las lineas 
#columnas <- 1:ncol(prueba) # lista de los valores 1:20
for(i in 1:length(columnas)) #length(columnas)=20
  {
  lines(1:150,
        #prueba (data frame de 150 X 20, para graficar)
        #columna <- 1:ncol(prueba) listado de valores 1:20 
        prueba[,columnas[i]], #filtrar "prueba" para valor de columna
        col=color_linea[i],   #color_linea[cuts_num]<-c("black")
        lwd=grosor_linea,     #grosor de cada linea
        lty=tipo_linea[i]     #tipo_linea[cuts_num]<-c(2:(length(cuts_num)+1))
       )
  }

#Leyendas
par(fig=c(.65,1,0,1),new=TRUE)
plot.new()
legend("top",legend=efecto, col=color_linea, lwd=3, lty=tipo_linea, title="Tamaño efecto", 
        bty="n" #Opciones: o (complete box), n (no box), 7, L, C, U
      )

**Segunda gráfica

#plot using ggplot2

#library(ggplot2)
#library(reshape)
#library(plotly)

obj <- cbind(size=1:150, prueba) #Agregando el tamaño al data frame "prueba" 

# Usar melt y unir con "effect" para el mapeo
#El data frame "obj" se reconstruye con respecto al parámetro id="size". 
melted <- cbind(reshape::melt(obj, id="size"), effect=rep(d,each=150)) 
p<- ggplot(data=melted, aes(x=size, y=value, color=as.factor(effect))) + 
        geom_line(size=0.7,alpha=.5) +
        ylab("Potencia") + 
        xlab("Tamaño muestral") + 
        ggtitle("t-Test")+
        theme_bw() +
        #guides(fill=guide_legend(title="Efecto"))
        #scale_fill_discrete(name = "Efecto")
        #labs(fill='Efecto') 
        #scale_fill_manual("Efecto"#,values=c("orange","red")
        scale_color_discrete(name = "Tamaño del efecto")    
                             
# Interactive plot
plotly::ggplotly(p)

7.0.3 Variando los tamaños muestrales

Example 7.2 Para cada tamaño muestral fijo, la idea ahora es modelar la relación entre el tamaño del efecto \(d\) y la potencia (manteniendo constante el nivel de significancia \(\alpha = 0.05\)). Para ello, considere los siguientes tamaños de grupo, donde \(n_1\) es el número de sujetos en el grupo 1 y \(n_2\) es el número de sujetos en el grupo 2:

  • \(n_1 = 28\), \(n_2 = 1406\): \(n_1\) representa el 2 % del tamaño total de la muestra de 1434.

  • \(n_1 = 144\), \(n_2 = 1290\): \(n_1\) representa el 10 % del tamaño total de la muestra de 1434.

  • \(n_1 = 287\), \(n_2 = 1147\): \(n_1\) representa el 20 % del tamaño total de la muestra de 1434.

  • \(n_1 = 430\), \(n_2 = 1004\): \(n_1\) representa el 30 % del tamaño total de la muestra de 1434.

  • \(n_1 = 574\), \(n_2 = 860\): \(n_1\) representa el 40% del tamaño total de la muestra de 1434.

  • \(n_1 = 717\), \(n_2 = 717\): grupos de igual tamaño (esto es óptimo porque conduce a la potencia más alta para un tamaño de efecto dado).

En la figura de abajo, se trazaron las curvas de potencia para la prueba \(t\), en función del tamaño del efecto, asumiendo una tasa de error Tipo I del 5%. La comparación de diferentes curvas de potencia (basadas en el tamaño de la muestra de cada grupo) en el mismo gráfico es una representación visual útil de este análisis. En la figura también se trazó una línea discontinua horizontal en un nivel de potencia aceptable del 80% y una línea vertical en el tamaño del efecto que tendría que estar presente en nuestros datos para alcanzar el 80 % de potencia. Se observa que el tamaño del efecto debe ser superior a 0.54 para alcanzar un nivel de potencia aceptable dados tamaños de grupo altamente desequilibrados de \(n_1 = 28\) y \(n_2 = 1406\), en comparación con todos los demás escenarios que conducen al 100% de potencia.

#library(dplyr)    
#library(tidyr)    #Para manipulación de datos: separate, gather, spread
#library(ggplot2)  
#library(plotly)   #Para curvas de potencias interactivas
#library(pwr)      #Para cálculo de las potencias

#Generar cálculos de las potencias con la funcion pwr.t2n.test.
#Es un t-test para 2 muestras con tamaños diferentes 
#Aquí: d es el tamaño del efecto, Power= potencia de la prueba= 1-beta): 

#pwr.t2n.test(n1 = NULL, n2= NULL, d = NULL, sig.level = 0.05, power = NULL,  alternative = c("two.sided",  "less","greater"))

ptab <- cbind(NULL, NULL)       

for (i in seq(0,1, length.out = 200)){
  pwrt1 <- pwr.t2n.test(n1 = 28, n2 = 1406, 
                        sig.level = 0.05, power = NULL, 
                        d = i, alternative="two.sided")
  pwrt2 <- pwr.t2n.test(n1 = 144, n2 = 1290, 
                        sig.level = 0.05, power = NULL, 
                        d = i, alternative="two.sided")
  pwrt3 <- pwr.t2n.test(n1 = 287, n2 = 1147, 
                        sig.level = 0.05, power = NULL, 
                        d = i, alternative="two.sided")
  pwrt4 <- pwr.t2n.test(n1 = 430, n2 = 1004, 
                        sig.level = 0.05, power = NULL, 
                        d = i, alternative="two.sided")
  pwrt5 <- pwr.t2n.test(n1 = 574, n2 = 860, 
                        sig.level = 0.05, power = NULL, 
                        d = i, alternative="two.sided")
  pwrt6 <- pwr.t2n.test(n1 = 717, n2 = 717, 
                        sig.level = 0.05, power = NULL, 
                        d = i, alternative="two.sided")
  
  #Es un data frame de tamaño 200 por 12: 
  ptab <- rbind(ptab, cbind(pwrt1$d, pwrt1$power,
                            pwrt2$d, pwrt2$power,
                            pwrt3$d, pwrt3$power,
                            pwrt4$d, pwrt4$power,
                            pwrt5$d, pwrt5$power,
                            pwrt6$d, pwrt6$power))
}


#Es un data frame de tamaño 200 por 13 (la 1ra columna es ID)
ptab <- cbind(seq_len(nrow(ptab)), ptab)

colnames(ptab) <- c("id","n1=28, n2=1406;effect size","n1=28, n2=1406;power",
                    "n1=144, n2=1290;effect size","n1=144, n2=1290;power",
                    "n1=287, n2=1147;effect size","n1=287, n2=1147;power",
                    "n1=430, n2=1004;effect size","n1=430, n2=1004;power",
                    "n1=574, n2=860;effect size","n1=574, n2=860;power",
                    "n1=717, n2=717;effect size","n1=717, n2=717;power")
                    
#gather se usa  para "reunir" un par key-value. En este caso, en 3 columnas: ID, variables y respuestas numericas
temp1 <- ptab %>% as.data.frame() %>%   gather(key = name, value = val, 2:13)

#Separar celdas en columnas, de acuerdo a una condición (sep=). En este caso, se separó "name" en dos columnas: samples y pruebas 
temp2 <- temp1 %>%   separate(col = name, into = c("samples", "pruebas"), sep = ";")


#La función spread hace lo opuesto a gather. Son funciones complementarias. 
#Es decir, si al resultado de aplicar la función spread le aplicamos la función gather llegamos al dataset original.
temp3 <- temp2 %>%   spread(key = pruebas, value = val)

#Convertir la variable "samples" a factor.
temp3$samples <- factor(temp3$samples, 
                        levels = c("n1=28, n2=1406", "n1=144, n2=1290", 
                                    "n1=287, n2=1147", "n1=430, n2=1004",
                                    "n1=574, n2=860", "n1=717, n2=717")
                       )

#Gráfica
p<- ggplot(temp3, aes(x = `effect size`, y = power, color = samples)) +
       geom_line(size=1) + 
       
       theme_bw() + 
       theme(axis.text=element_text(size=10), 
             axis.title=element_text(size=10), 
             legend.text=element_text(size=10)) +
      
       geom_vline(xintercept = .54, linetype = 2) +
       geom_hline(yintercept = 0.80, linetype = 2)+
       
       labs(x="Effect size", y="Power") +
       scale_color_discrete(name = "Sampling size") 

# so simple to make interactive plots
plotly::ggplotly(p)

8 Pruebas de la razón de verosimilitud (LR-pruebas)

8.0.1 Pasos para la LR-prueba

En esta sección se presentará otro método para construir pruebas de hipótesis y útil para la mayoría de los problemas que aparecen en las aplicaciones. Su gran ventaja es que está basado en estimaciones de máxima verosimilitud para el parámetro de interés, para el cual se quiere comprobar o rechazar cierta hipótesis contra alguna alternativa. En la presentación se siguen los mismos pasos generales de la sección 3.0.2:

Paso 1:

Interesa una hipótesis \(H_0: \theta \in \Theta_0\) contra una alternativa \(H_1: \theta\in \Theta_1\).

Paso 2:

Se observa un dato \(x=(x_1, \ldots, x_n)^t \in \mathbb{R}^n\), suponiendo que éste es un valor de una muestra \(X=(X_1, \ldots, X_n)^t\) con función de densidad \(f_\theta\), y se calcula \(L(\theta)=f_\theta(x)= f(x,\theta)\), que es la función de verosimilitud correspondiente al dato \(x\).

Paso 3:

Como estadístico de prueba se escoge la razón de verosimilitud (en inglés: Likelihood Ratio) o, más brevemente, LR-estadística:

\[\lambda(X) \;=\; \frac{L(\widehat{\theta}_1)}{L(\widehat{\theta}_0)}= \frac{\sup\limits_{\theta \in \Theta_1} L(\theta)} {\sup\limits_{\theta \in \Theta_0} L(\theta)} \]

donde

  1. \(\Theta_0 \cup \Theta_1\) es una unión disyunta de \(\Theta\).

  2. \(\widehat{\theta}_0\) es la ML-estimación de \(\theta\) bajo \(H_0\) y \(\widehat{\theta}_1\) es la ML-estimación de \(\theta\) bajo \(H_1\). Es decir, el subíndice indica si la estimación corresponde a la hipótesis nula o a la alternativa.

Paso 4:

Si \(\lambda(x)\) es una observación concreta de la estadística \(\lambda(X)\), entonces se rechaza \(H_0\) con base en \(x\) si y sólo si \(\lambda(x) \geq \lambda_0 > 1\), para un \(\lambda_0 \in \mathbb{R}\). Es decir, si el máximo valor de la función de verosimilitud es para \(H_1\) *significativamente” más grande que en \(H_0\).

Paso 5:

Se determina \(\lambda_0\) como valor crítico según el criterio (compárese con la sección 4.0.1

\[P(\lambda(X)\geq \lambda_0 \,/\, H_0)\;\leq\, \alpha, \quad \mbox{para un $\alpha$ dado}\]

O, alternativamente, se puede calcular el \(P\)-valor (compárese con la sección 5, que es igual a \[\mbox{$P$-valor} \;= \; P\big(\lambda(X)\geq \lambda(x) \,/\, H_0)\]

8.0.2 Pasos para la LR-prueba en problemas concretos

El procedimiento de una LR-prueba, como se describió en la sección 8.0.1, se simplifica en problemas concretos según las siguientes modificaciones:

Modificación 1:

Por lo general no es fácil determinar la distribución del estadístico \(\lambda(X)\) bajo \(H_0\). Pero sí es posible encontrar un estadístico \(T(X)\) tal que \(\lambda(X)=h\big(T(X)\big)\), cuya distribución bajo \(H_0\) se encuentra tabulada. Aquí, \(h\) es una función estrictamente creciente de \(\mathbb{R}\) en \(\mathbb{R}\). Entonces rechazar \(H_0\) con base en \(x\) es equivalente a la condición \(T(x)\geq c\) y se puede determinar el valor crítico \(c\) para un nivel \(\alpha\), o bien, calcular el \(P\)-valor para \(c=T(x)\).

Modificación 2:

Muchas veces es más fácil calcular el valor \(\lambda(x)\) por medio del cociente

\[\lambda(x) \;=\; \frac{L(\widehat{\theta})}{L(\widehat{\theta}_0)}, \quad \text{para los $x$ con $\lambda(x)>1$} \]

siendo \(\widehat{\theta}\) la ML-estimación de \(\theta\), pero sin restricción alguna. Este hecho sigue de \(\widehat{\theta}_1(x) =\widehat{\theta}(x)\) para todos los \(x\) con \(\lambda(x)>1\).

8.0.3 Ejemplos aplicando LR

Antes de dar un primer ejemplo ilustrativo, nótese que el método para construir LR-pruebas se basa en la misma idea e interpretación que el método para construir ML-estimaciones. O sea, se rechaza la hipótesis si los valores de la alternativa son significativamente más verosímiles que los valores de la hipótesis.

Example 8.1 Considere nuevamente la situación planteada en el ejemplo 3.1, en donde \(\theta = p\). La LR-prueba para \(H_0:p = 0,5\) contra \(H_1: p=0,7\) rechaza \(H_0\) con base en \(x=(x_1, \ldots, x_n)^t\) si y sólo si

\[\lambda(x) \;= \; \frac{L(0,7)}{L(0,5)} \;= \; \lambda_0\]

Como la función de verosimilitud es igual a

\[L(p) \;= \; \prod\limits_{i=1}^n p^{x_i} (1-p)^{1-x_i} \;= \; p^{\sum x_i} (1-p)^{n-\sum x_i} \;= \; \left(\frac{p}{1-p}\right)^{\sum x_i} (1-p)^n,\]

entonces el valor \(\lambda(x)\) de la LR-estadística \(\lambda(X)\) está dado por

\[\lambda(x) \;= \; \frac{\left(\frac{7}{3}\right)^{\sum x_i} (0,3)^n}{(0,5)^n} \;= \; \left(\frac{7}{3}\right)^{\sum x_i} \left(\frac{3}{5}\right)^n\]

y es una función creciente de \(T(x)=\sum\limits_{i=1}^n x_i\). \(\blacktriangleleft\)

A continuación se presentarán dos problemas para los cuales las LR-pruebas conducen a diferentes tipos de pruebas que usulamente se llaman pruebas \(t\), porque pueden ser determinadas por estadísticos que están distribuidos de acuerdo a la \(t\) de Student.

Example 8.2 (Prueba t para una muestra) Considere la siguiente situación:

1. Datos del problema:

  1. Estamos interesados en las hipótesis \(H_0:\mu=\mu_0\) y \(H_1:\mu>\mu_0\); con \(\mu_0\) fijo, siendo el parámetro \(\mu\) la esperanza de una variable de interés, cuya varianza \(\sigma^2\) no se conoce.

  2. Se suponen que las variables muestrales \(X_i\sim \mathcal{N}(\mu,\sigma^2)\).

2. Objetivo:

A continuación, calcularemos las ML-estimaciones de \(\theta=(\mu,\sigma^2)\) en los dos siguientes espacios, véase la sección 8.0.2:

\[\Theta_0 =\{(\mu_0,\sigma^2)^t\, /\, \sigma^2>0\}, \qquad \Theta = \{(\mu,\sigma^2)^t\, /\, \mu \geq \mu_0,\, \sigma^2>0\}\]

3. Cálculo de las estimaciones en \(\Theta_0\):

Al maximizar \(L(\mu_0,\sigma^2)\) con respecto a \(\sigma^2>0\), fijando \(\mu_0\), obtenemos las siguientes ML-estimaciones en \(\Theta_0\):

\[\widehat{\mu} = \mu_0, \qquad \widehat{\sigma}_0^2 = \frac{\sum\limits_{i=1}^n(x_i-\mu_0)^2}{n}\]

4. Cálculo de las estimaciones en \(\Theta\): Al maximizar \(L(\mu,\sigma^2)\) con respecto a \(\sigma^2>0\) y \(\mu \geq \mu_0\), obtenemos las siguientes ML-estimaciones en \(\Theta\):

\[\hat{\mu} = \left\{ \begin{array}{ll} \overline{x}_{(n)},& \mbox{si} \quad \overline{x}_{(n)}>\mu_0\\ \mu_0,& \mbox{si} \quad \overline{x}_{(n)}\leq \mu_0 \end{array}\right., \qquad \widehat{\sigma}^2 = \frac{\sum\limits_{i=1}^n(x_i-\widehat{\mu})^2}{n}\]

5. Justificación de lo calculado en 4 para \(\widehat{\mu}\):

Es claro que \(\frac{\partial\ln(L)}{\partial\mu} = \frac{n}{\sigma^2}(\overline{x}_{(n)}-\mu)\). Ahora, consideramos dos casos:

  1. Si \(\overline{x}_{(n)}>\mu_0\), entonces \(\frac{\partial\ln(L)}{\partial\mu} = 0\) para \(\widehat{\mu}=\overline{x}_{(n)}\).

  2. En cambio, si \(\overline{x}_{(n)}\leq \mu_0\), entonces \(\frac{\partial\ln(L)}{\partial\mu} \leq 0\) para todo \(\mu\geq\mu_0\), por lo tanto, \(L(\mu,\sigma^2)\) decrece para \(\mu\), es decir es maximal para \(\mu=\mu_0\).

6. Justificación de lo calculado en 4 para \(\widehat{\sigma}^2\):

Fijando la ML-estimación

\[\widehat{\mu} = \left\{\begin{array}{ll} \overline{x}_{(n)},& \;\overline{x}_{(n)}>\mu_0\\ \mu_0,& \;\overline{x}_{(n)}\leq \mu_0 \end{array}\right.,\]

se obtiene la estimación \(\widehat{\sigma}^2\) al resolver

\[\frac{\partial\ln(L)}{\partial(\sigma^2)} = \frac{\sum\limits_{i=1}^n (x_i-\widehat{\mu})^2}{2(\sigma^2)^2}- \frac{n}{2\sigma^2}=0\]

Entonces, en conclusión tenemos:

  1. Si \(\overline{x}_{(n)}\leq \mu_0\), entonces, \(\widehat{\mu}\;=\; \mu_0\), y por lo tanto,

\[\widehat{\sigma}^2\;=\; \widehat{\sigma}_0^2\;=\; \frac{\sum\limits_{i=1}^n(x_i-\mu_0)^2}{n}\]

  1. Si \(\overline{x}_{(n)}>\mu_0\), entonces, \(\widehat{\mu} \;=\;\overline{x}_{(n)}\) y con ello,

\[\widehat{\sigma}^2 = \frac{\sum\limits_{i=1}^n(x_i-\overline{x}_{(n)})^2}{n}\]

En la siguiente gráfica, se resumen los resultados de las estimaciones en \(\Theta\):

7. Cálculo de la LR-estadística

Una vez calculadas las ML-estimaciones de \(\theta=(\mu,\sigma^2)\), determinaremos la LR-estadística \(\lambda(X)\). Para ello, nuevamente consideraremos los dos casos posibles:

Primer caso:

Para \(\overline{x}_{(n)}\leq \mu_0\), se tiene que \(\lambda(x)=1\). Por lo tanto, no se rechaza \(H_0\).

Segundo caso:

Para \(\overline{x}_{(n)}>\mu_0\), tenemos que

\[\begin{eqnarray} \lambda(x) &=& \frac{L(\widehat{\theta})}{L(\widehat{\theta}_0)} \; =\; \frac{(2\pi\widehat{\sigma}^2)^{-n/2}\cdot \exp\left\{-\frac{1}{2\widehat{\sigma}^2} \sum\limits_{i=1}^n(x_i-\overline{x}_{(n)})^2\right\}}{(2\pi\widehat{\sigma}_0^2)^{-n/2}\cdot \exp\left\{-\frac{1} {2\widehat{\sigma}_0^2}\sum\limits_{i=1}^n(x_i-\mu_0)^2\right\}} \nonumber\\ &=& \left(\frac{\widehat{\sigma}_0^2}{\widehat{\sigma}^2}\right)^{n/2}\cdot \frac{\exp(-n/2)}{\exp(-n/2)}\;=\; \left[\frac{\sum\limits_{i=1}^n(x_i-\mu_0)^2}{\sum\limits_{i=1}^n(x_i-\overline{x}_{(n)})^2}\right]^{n/2} \nonumber\\ &=& \left[\frac{\sum\limits_{i=1}^n(x_i-\overline{x}_{(n)})^2+n(\overline{x}_{(n)}-\mu_0)^2} {\sum\limits_{i=1}^n(x_i-\overline{x}_{(n)})^2}\right]^{n/2} \nonumber\\ &=& \left[1 \, + \; \frac{n(\overline{x}_{(n)}-\mu_0)^2} {\sum\limits_{i=1}^n (x_i - \overline{x}_{(n)})^2}\right]^{n/2}\; > \; 1 \tag{8.1} \end{eqnarray}\]

O sea, para este caso, se rechaza \(H_0\). A continuación, determinaremos a partir de que valor \(\overline{x}_{(n)}\) se rechaza \(H_0\). Teniendo en cuenta (8.1) y que

\[s^2_{(n)} \;=\; \frac{1}{n-1}\sum\limits_{i=1}^n(x_i-\overline{x}_{(n)})^2\]

tenemos

\[ \lambda(x) \;=\; \left(1+\frac{1}{n-1}\left[\frac{\overline{x}_{(n)}-\mu_0} {s_{(n)}/\sqrt{n}}\right]^2\right)^{n/2}\]

Ahora, por el teorema 2.1 y bajo \(H_0:\mu=\mu_0\), se cumple que el estadístico

\[T(X) \;:= \; \frac{\overline{X}_{(n)}-\mu_0} {\sqrt{\left(\frac{1}{n-1}\sum\limits_{i=1}^n(X_i-\overline{X}_{(n)})^2\right)/ n }} \;= \; \frac{\overline{X}_{(n)}-\mu_0} {S_{(n)} / \sqrt{n}} \]

tiene distribución \(t\) de Student con \(n-1\) grados de libertad. Por tanto, para \(\overline{x}_{(n)}>\mu_0\), la LR-estadística será una función creciente del estadístico \(T(X)\):

\[\lambda(X) \;=\; \left(1+\frac{T^2(X)}{n-1}\right)^{n/2}, \mbox{donde $T\sim \mathcal{T}(n-1)$ bajo $H_0$}\]

Según la parte (1) de la sección 8.0.2, se rechaza \(H_0\) si y solo si \(T(x)\geq c>0\). Ahora bien, se determina \(c\) como valor crítico de

\[P(T(X)\geq c/H_0)=\alpha, \quad \mbox{para un nivel $\alpha$ dado}\]

o se calcula el \(P\)-valor como \[P\mbox{-valor}\;=\; P\big(T(X)>T(x)\big)\]

para la observación \(x\).\(\blacktriangleleft\)

9 Ejercicios

Realizar los siguientes ejercicios:

9.0.1 Ejercicios del 1 al 3

  1. Para el ejemplo 3.1 con \(n=20\), calcule la probabilidad del error de tipo II, para las pruebas a nivel de \(\alpha=5\%\), \(\alpha=1\%\) y \(\alpha=0,1\%\). ¿Cómo se pueden interpretar, en este ejemplo, los errores del tipo I y II? ¿Qué significan los valores concretos para las probabilidades correspondientes?
  1. Realizar los siguientes incisos:

    1. Haga una prueba a nivel del \(\alpha=5\%\) para el ejemplo 3.1 con \(n=20\), para las siguientes hipótesis: \(H_0:p=0,7\) vs \(H_1:p=0,5\).

    2. Calcule la probabilidad del error de tipo II. Interprete los valores y compare con el ejercicio 1.

    3. ¿Tiene efecto el intercambio de hipótesis nula y alternativa en el caso de que se controlen las probabilidades de los dos tipos de errores por el mismo nivel \(\alpha=\beta\)?

  1. Realizar los siguientes incisos:

    1. Haga una prueba a nivel del \(\alpha=5\%\) para el ejemplo 3.1 con \(n=20\), para las siguientes hipótesis: \(H_0:p=0,5\) vs \(H_1:p=0,6\).

    2. Calcule la probabilidad del error de tipo II. Interprete esta situación y compare con el ejercicio 1.

    3. Para la alternativa de la parte (a), haga una prueba de hipótesis controlando las probabilidades de los errores de tipo I con \(\alpha=1\%\) y de tipo II con \(\beta=5\%\) y compare con el resultado del ejemplo 3.1.

9.0.2 Ejercicios del 4 al 6

  1. Repita los incisos (a) y (b) del ejercicio 3, pero utilizando la aproximación a una normal (con corrección).
  1. Para el ejemplo 3.1, haga pruebas de hipótesis a nivel de \(\alpha=5\%\), \(\alpha=1\%\) y \(\alpha=0,1\%\) con la modificación de escoger una muestra de \(n=5\). Interprete los resultados.
  1. Para el ejemplo 3.1, haga pruebas de hipótesis a nivel de \(\alpha=5\%\), \(\alpha=1\%\) y \(\alpha=0,1\%\) con la modificación de escoger una muestra de \(n=900\). Calcule la probabilidad de cometer un error de tipo II e interprete los resultados.

9.0.3 Ejercicio 7

Para el ejemplo 3.1, muestre que la función de potencia \(\mathcal{P}(p)\) es creciente entre los valores \(\mathcal{P}(0)\) y \(\mathcal{P}(1)\) con:

  1. \(\mathcal{P}(p)= \sum\limits_{k=c}^n {n\choose k} p^k (1-p)^{n-k}\), usando la distribución exacta.

  2. \(\mathcal{P}(p) \approx 1- \Phi\left(\frac{c\,-\,np\,-\, 0,5}{\sqrt{np(1-p)}}\right)\), usando la aproximación normal.

  3. ¿Qué consecuencias tienen los resultados anteriores para el ejemplo 3.1 y los ejercicios correspondientes?

9.0.4 Ejercicio 8

Una prueba de hipótesis está dada por:

  • La hipótesis \(H_0:\mu=0\) y la alternativa \(H_1: \mu>0\), siendo \(\mu\) la esperanza de una variable de interés, de la cual se conoce su varianza \(\sigma^2\).

  • Una muestra de tamaño \(n\) de variables muestrales \(X_i \sim \mathcal{N}(\mu, \sigma^2)\) para la variable de interés.

  • El estadístico de prueba \(T(X)=\overline{X}\) tal que se rechaza \(H_0\) si y sólo si \(T(x)\geq c\).

Con base en lo anterior, resuelva los siguientes incisos:

  1. Muestre que \(\mathcal{P}(\mu) =1- \Phi\left(\frac{\sqrt{n}\,(c-\mu)}{\sigma}\right)\) es la función de potencia.

  2. Muestre que \(\mathcal{P}\) crece entre el valor mínimo \(\mathcal{P}(0)\) y \(\lim\limits_{\mu\to\infty} \mathcal{P}(\mu)=1\).

  3. ¿Cómo se obtiene el valor crítico \(c=c(n)\) de una prueba al nivel del \(\alpha=5\%\)?

9.0.5 Ejercicio 9

Para obtener una idea de qué efecto tienen dos somníferos 1 y 2, se hizo el siguiente experimento. Se escogieron \(K=10\) personas y se aplicaron a todas las personas los dos somníferos (con ciertos intervalos de tiempo) y se midieron para cada persona \(k\) las horas \(y_{jk}\) que dormían más con el somnífero \(j\) comparando con el tiempo que dormían sin ningún somnífero. Los datos del experimento fueron:

Suponga que se tiene interés en verificar si hay una diferencia significativa entre los dos somníferos. El parámetro de interés es, entonces, la diferencia \(\mu=\mu_1-\mu_2\) entre las horas que se duerme con somnífero 1 y con somnífero 2. Es decir, se considera como variables muestrales \(Y_k=Y_{1k}- Y_{2k}\), para \(k=1, 2, \ldots, n\).

  1. Según el ejercicio 8, ¿cuál es el resultado de la prueba de hipótesis, si se toma como valor fijo para \(\sigma^2\) el valor 1.51.

  2. ¿Cambia algo si se cambia al nivel \(\alpha\)? ¿Cuál es el \(P\)-valor? ¿Cómo se interpreta?

  3. Calcule la función potencia \(\mathcal{P}(\mu)\) para \(\mu=0,1\). ¿Qué significa esto para la probabilidad del error de tipo II para todos los \(\mu\geq 0,1\)?

  4. Determine el tamaño \(n\) tal que la probabilidad de cometer el error de tipo I sea igual a \(\alpha=5\%\) y la de cometer un error de tipo II, para \(\mu\geq 0,1\), sea igual a \(\beta=5\%\). ¿Por qué basta considerar sólo los valores \(\mu\geq 0,1\) de la alternativa?

9.0.6 Ejercicio 10

Considere la situación del ejercicio 9. Suponga que, nuevamente, se tiene interés en verificar si hay una diferencia significativa entre los dos somníferos. Tome como variables muestrales las diferencias

\[Y_k= Y_{1k}- Y_{2k} \; \sim \; \mathcal{N}(\mu, \sigma^2), \quad k=1,2 \ldots, 10\]

  1. Haga una prueba \(t\) para una muestra para la hipótesis \(H_0:\mu=0\) contra la alternativa \(H_1:\mu>0\), siendo \(\mu=\mu_1-\mu_2\). Compare el procedimiento y el resultado de la prueba usada en los incisos (a) y (b) del ejercicio 9.

  2. ¿Por qué no es justificado aplicar una prueba \(t\) para dos muestras \(Y_{1k}\) y \(Y_{2k}\), con \(k=1,\ldots, 10\), para la hipótesis \(H_0:\mu_1=\mu_2\) (contra la hipótesis alternativa \(H_1:\mu_1>\mu_2\))?

9.0.7 Ejercicio 11

Prueba \(t\) para dos muestras independientes. Considere ahora un problema caracterizado por dos variables. Se tiene interés en saber si los dos efectos medios, representados por las esperanzas \(\mu_1\) y \(\mu_2\) de las dos variables, son iguales o no. Una prueba para tales situaciones se obtienen según los siguientes pasos:

(a) Primer paso:

Estamos interesados en las hipótesis \(H_0:\mu_1=\mu_2\) y \(H_1:\mu_1\ne \mu_2\). Aquí se supone que \(\mu_1\) y \(\mu_2\) son desconocidas, inclusive también se desconocen las varianzas y sólo se sabe que son iguales a \(\sigma^2\) (o sea, se supone que la medición de ambas variables se puede hacer con la misma precisión). En este caso, el parámetro es

\[\theta=\left(\mu_1, \mu_2, \sigma^2\right)^t, \quad \mu_1\in \mathbb{R}, \; \mu_2\in \mathbb{R}, \; \sigma^2 >0\]

(b) Segundo paso:

Se observan dos muestras independientes, una para cada variable de interés, y se supone que las variables muestrales

\[\begin{eqnarray*} X_{1k}&\sim & \mathcal{N}(\mu_1,\sigma^2), \quad k=1, \ldots, n_1\\ X_{2j}&\sim & \mathcal{N}(\mu_2,\sigma^2), \quad j=1, \ldots, n_2 \end{eqnarray*}\]

siendo \(n=n_1+n_2\) el tamaño total.

(c) Tercer paso:

Muestre que las estimaciones de máxima verosimilitud de \(\theta\) en \[\Theta_0 =\{(\mu, \mu,\sigma^2)^t\, /\, \mu\in \mathbb{R}, \, \sigma^2>0\}\]

es:

\[\begin{eqnarray*} \widehat{\mu}_0 &=& \frac{1}{n}\left(\sum\limits_{k=1}^{n_1} x_{1k} + \sum\limits_{j=1}^{n_2} x_{2j}\right) \;= \; \frac{1}{n}\left(n_1\,\overline{x}_{1\bullet} \; + \; n_2\,\overline{x}_{2\bullet}\right), \widehat{\sigma}_0^2 &=& \frac{1}{n}\left(\sum\limits_{k=1}^{n_2}(x_{1k}-\widehat{\mu}_0)^2 + \sum\limits_{j=1}^{n_1}(x_{2j}-\widehat{\mu}_0)^2\right) \end{eqnarray*}\]

(d) Cuarto paso:

Muestre que las estimaciones de máxima verosimilitud de \(\theta\) en

\[\Theta = \{(\mu_1, \mu_2,\sigma^2)^t\, /\, \mu_1, \mu_2\in \mathbb{R}, \, \sigma^2>0\}\]

es:

\[\begin{eqnarray*} \widehat{\mu}_1 = \overline{x}_{1\bullet}, \qquad \widehat{\mu}_2 = \overline{x}_{2\bullet} \qquad \widehat{\sigma}_0^2 \;= \; \frac{1}{n}\left(\sum\limits_{k=1}^{n_1}(x_{1k}-\overline{x}_{1\bullet})^2 + \sum\limits_{j=1}^{n_2}(x_{2j}-\overline{x}_{2\bullet})^2\right) \end{eqnarray*}\]

(e) Quinto paso:

Muestre que la LR-estadística tiene valores

\[\begin{eqnarray*} \lambda(x_1, x_2) &=& \frac{L(\widehat{\theta})}{L(\widehat{\theta}_0)} \;= \; \left(1+ \frac{\frac{n_1\, n_2}{n} (\overline{x}_{2\bullet}-\overline{x}_{1\bullet})^2}{\sum\limits_{k=1}^{n_1}(x_{1k}-\overline{x}_{1\bullet})^2 + \sum\limits_{j=1}^{n_2}(x_{2j}-\overline{x}_{2\bullet})^2} \right)^{n/2} &=&\left(1+\frac{T^2(x_1, x_2)}{n-2}\right)^{n/2} \end{eqnarray*}\]

donde

\[T(X) \;:= \; T(X_1,X_2) \;= \; \frac{\overline{X}_{2\bullet} - \overline{X}_{1\bullet}}{\sqrt{\frac{S^2}{n_1} + \frac{S^2}{n_2}}} \]

siendo \[S^2 \;= \; \frac{1}{n-2}\left(\sum\limits_{k=1}^{n_1}(X_{1k}-\overline{X}_{1\bullet})^2 + \sum\limits_{j=1}^{n_2}(X_{2j}-\overline{X}_{2\bullet})^2\right)\]

la llamada varianza muestral combinada.

(f) Sexto paso:

Muestre que \(\lambda\) es una función estrictamente creciente de \(|T(x)|\).

(g) Séptimo paso:

Muestre que, bajo \(H_0:\mu_1=\mu_2\), el estadístico \(T(X)\) tiene distribución \(t\) de Student con \(n-2\) grados de libertad. Por lo tanto, según la parte (1) de la sección 8.0.2, se rechaza \(H_0\) si y solo si \(|T(x_1,x_2)|\geq c>0\). Ahora bien, se determina \(c\) como valor crítico de

\[P(|T(x_1,x_2)|\geq c\,/\,H_0)\;=\; 2\,P(T(x_1,x_2)\geq c)\;= \; \alpha, \]

para un nivel \(\alpha\) dado o se calcula el \(P\)-valor como

\[P\mbox{-valor}\;=\; P\big(|T(X_1,X_2)|\,>\,|T(x_1,x_2)|\big) \;= \; 2\,P\big(T(X_1,X_2)\,>\,|T(x_1,x_2)|\big)\]

para la observación

\[(x^t_1,x^t_2) = (x_{11}, \ldots, x_{1n_1}, x_{21}, \ldots, x_{2n_2})^t\]

Obsérvese que aquí se ha utilizado la simetría de la distribución \(t\) de Student alrededor del origen. \(\blacktriangleleft\)

9.0.8 Ejercicio 12

Considere el problema que se refiere al hecho de conocer si cierto tratamiento a una tierra aumenta o no la producción. Suponga que se trataron 5 tierras con 500 libras de cierto material orgánico en la época de lluvia anterior a la cosecha y se midió después la producción \(y_{2k}\). En tierras de control, no tratadas con el material orgánico, se midió la producción \(y_{1k}\). Resultaron los siguientes datos:

Haga una prueba \(t\) para dos muestras para determinar si el tratamiento mejora la producción. ¿Cuál pareja \((H_0,H_1)\) del ejercicio 11 es la más adecuada?

9.0.9 Ejercicio 13

Una prueba \(t\) de correlación. Al igual que en el ejercicio 11, considere un problema caracterizado por dos variables. Pero, a diferencia de ese ejemplo en donde la prueba \(t\) se basa en observar independendientemente una muestra para cada variable (de tamaños iguales o desiguales como en el ejercicio 12), ahora se trata de problemas en los cuales se presume independencia entre las dos variables. Para verificar esto, se puede hacer la siguiente prueba \(t\) de independencia:

(a) Primer paso:

Se hace la hipótesis \(H_0:\rho=0\) vs \(H_1:\rho\ne 0\), siendo \(\rho\) el supuesto coeficiente de correlación entre las dos variables de interés. Sobre las esperanzas \(\mu_1\) y \(\mu_2\) y las varianzas \(\sigma_1^2\) y \(\sigma_2^2\) no se supone nada. O sea, el parámetro es: \[\theta=(\mu_1,\mu_2, \sigma_1^2, \sigma_2^2)^t,\quad \mu_1, \mu_2 \in \mathbb{R}, \quad \sigma_1^2, \sigma_2^2 >0, \quad \rho\in (-1,1)\]

(b) Segundo paso:

Se observa una muestra aleatoria bidimensional \((Y_{1i}, Y_{2i})^t\) con \(i=1,2, \ldots, n\), bi-normales de la forma \((Y_{1n}, Y_{2n})^t \; \sim \;\mathcal{ N}(\mu, \Sigma)\), siendo \(\mu=(\mu_1, \mu_2)^t\) y \[\Sigma \;= \; \left( \begin{array}{ll} \sigma_1^2 & \sigma_1\sigma_2\rho \\ \sigma_1\sigma_2\rho & \sigma_2^2 \end{array} \right)\]

y donde los \(n\) vectores son independientes entre sí.

(c) Tercer paso:

Muestre que la LR-estadística es \[\lambda \;= \; \lambda(Y_1, Y_2) \;= \; \frac{1}{\sqrt{(1-\widehat{\rho})^n}}\]

siendo

\[Y_1=(Y_{11}, \ldots, Y_{1n})^t, \qquad Y_2=(Y_{21},\ldots, Y_{2n})^t\]

y

\[\widehat{\rho}\;= \; \frac{\sum\limits_{i=1}^n (Y_{1i}-\overline{Y}_{1\bullet})(Y_{2i}-\overline{Y}_{2\bullet})}{\sqrt{\left[\sum\limits_{i=1}^n (Y_{1i}-\overline{Y}_{1\bullet})^2\right] \left[ \sum\limits_{i=1}^n (Y_{2i}-\overline{Y}_{2\bullet})^2\right]}}\]

(d) Cuarto paso:

Muestre que para el \(t\)-estadístico

\[T\; :=\; T(Y_1,Y_2) \;= \; \frac{\widehat{\rho}\, \sqrt{n-2}}{\sqrt{1- \widehat{\rho}^2}}\]

es válido que \(|T|\) es una función estrictamente creciente de \(\lambda\). Es decir, la LR-prueba rechaza \(H_0\) con base en \((y_1^t, y_2^t)\) si y sólo si \(|T(y_1,y_2)|\geq c>0\), siendo \(c\) un valor crítico según el criterio del error de tipo I o el del \(P\)-valor. Use el resultado (sin demostración): Bajo \(H_0:\rho=0\) se cumple que \(T\sim \mathcal{T}(n-2)\).

9.0.10 Ejercicios del 14 al 15

  1. Considere los datos del ejercicio 9. Con ayuda de la fórmula dada en el ejercicio 13 para el coeficiente de correlación \(\widehat{\rho}\), halle el valor correspondiente e indique el resultado de la prueba \(t\) de independencia. Interprete sus resultados.
  1. Considere los datos que se muestran en la tabla de abajo. Resultaron de un experimento que se hizo con 10 hombres midiendo su nivel de colesterol en la sangre (\(y_{1i}\)) y el cociente peso/talla (\(y_{2i}\)). ¿Cuál es el resultado de la prueba \(t\) de independencia? Interprete sus resultados.

9.0.11 Ejercicio 16

Una prueba \(F\) para la igualdad de varianzas. Al igual que en el ejercicio 11, considere un problema caracterizado por dos variables, independientes entre sí. La prueba \(t\) de ese ejemplo se basa en suponer que las varianzas de las dos variables son iguales. Para verificar esto se puede hacer la siguiente prueba \(F\):

  1. Se hace la hipótesis \(H_0:\sigma_1^2=\sigma_2^2\) vs \(H_1:\sigma_1^2>\sigma_2^2\), por ejemplo, tomando como parámetro

    \[\theta=(\mu_1,\mu_2, \sigma_1^2, \sigma_2^2)^t,\quad \mu_1, \mu_2 \in \mathbb{R}, \quad \sigma_1^2, \sigma_2^2 >0\]

  2. Se observan dos muestras aleatorias independientemente, una para cada variable. Suponga que \(n=n_1+n_2\) es el tamaño total y que

    \[\begin{eqnarray*} Y_{1k} &\sim & N(\mu_1, \sigma_1^2), \quad k=1,2, \ldots, n_1\\ Y_{2j} &\sim & N(\mu_2, \sigma_2^2), \quad j=1,2, \ldots, n_2 \end{eqnarray*}\]

  3. Muestre que la LR-estadística es

\[\lambda \;= \; \lambda(Y_1, Y_2) \;= \; \frac{\sqrt{(n_1F \, + \; n_2)^n}}{\sqrt{n^n \, F^{n_1}}}, \qquad \mbox{siendo}\]

\[F\;= \; F(Y_1,Y_2)\;= \; \frac{\sum\limits_{k=1}^{n_1} (Y_{1k}-\overline{Y}_{1\bullet})^2 / n_1}{\sum\limits_{j=1}^{n_2} (Y_{2j}-\overline{Y}_{2\bullet})^2 / n_2} \;= \; \frac{\widehat{\sigma}_1^2}{\widehat{\sigma}_2^2}\]

  1. Muestre que para \(F>1\), la LR-estadística \(\lambda\) es una función estrictamente creciente de \(F\). Es decir, la LR-prueba rechaza \(H_0\) con base en \((y_1^t, y_2^t)\) si y sólo si \(F(y_1,y_2)\geq c>1\), siendo \(c\) un valor crítico según el criterio del error de tipo I o el del \(P\)-valor. Sugerencia: Aplique el teorema 2.2.

Sugerencia para el inciso (c):

Muestre los siguientes pasos:

  1. \(\widehat{\mu}_1=\overline{Y}_{1\bullet}\) y \(\widehat{\mu}_2=\overline{Y}_{2\bullet}\) son las ML-estimaciones de \(\mu_1\) y \(\mu_2\), respectivamente, sin importar si se hace o no la hipótesis \(H_0\).

  2. \(\widehat{\sigma}_1^2\) y \(\widehat{\sigma}_2^2\) son las ML-estimaciones de \(\sigma_1^2\) y \(\sigma_2^2\), respectivamente, sin hacer la hipótesis \(H_0\).

  3. Si \(\sigma^2:=\sigma_1^2=\sigma_2^2\), entonces la ML-estimación de \(\sigma^2\) bajo la hipótesis \(H_0\) viene dada por:

\[\widehat{\sigma}^2 \;= \; \left(\sum\limits_{k=1}^{n_1} (Y_{1k}-\overline{Y}_{1\bullet})^2 \; + \; \sum\limits_{j=1}^{n_2} (Y_{2j}-\overline{Y}_{2\bullet})^2\right)/n\]

9.0.12 Ejercicios del 17 al 21

  1. Como parte de un proceso de ensamblaje, se usa un taladro para hacer agujeros en una lámina de metal. Cuando el taladro funciona adecuadamente, los diámetros de estos agujeros tienen una distribución normal con media de 2 centímetros y desviación típica de 0,06 centímetros. Periódicamente, se miden los diámetros de una muestra aleatoria de agujeros para controlar que el taladro funciona según estos parámetros. Asumamos que la desviación típica no varía y que una muestra aleatoria de seis medidas da un diámetro medio de 1,95 centímetros. Pruebe la hipótesis de que la media poblacional es 2 centímetros frente a una alternativa de otro valor. Use un nivel de significancia de 0,05.
  1. Cuando funciona correctamente, una máquina llena bolsas de azúcar con un contenido, en promedio, de 200 gramos. Una muestra aleatoria de nueve bolsas de azúcar de una remesa presentó los siguientes pesos (en gramos) para el contenido: 208, 201, 197, 203, 209, 214, 197, 197, 206. Asumiendo que la distribución de la población es normal, contraste al nivel del 5%, la hipótesis nula de que la máquina está funcionando correctamente frente a la alternativa bilateral.
  1. De una muestra aleatoria de 802 clientes de supermercados, 378 pagaron sus artículos con tarjetas de crédito. Contrástese, al nivel del 10%, la hipótesis nula de que al menos la mitad de los compradores pagan sus artículos con tárjetas de crédito frente a la alternativa de que la proporción poblacional es menor de la mitad.
  1. El director de personal de una gran compañía de seguros está interesado en reducir la tasa de rotación del personal de apoyo en el procesamiento de datos durante el primer año de contratación. Los registros históricos indican que 25% de todos los nuevos ingresos ya no están contratados al final del año. Se implantaron nuevos programas de capacitación para una muestra de 150 nuevos ingresos y, después de un año, 29 de ellos ya no estaban en la compañía. Para un nivel de significancia de 0,01, ¿existe evidencia de que la proporción de empleados de procesamiento de datos que tomaron la nueva capacitación y ya no están en la empresa sea menor que 0,25?
  1. Un rector de cierta universidad afirma que la proporción de hombres con auto en el campus es mayor a la proporción de mujeres. Un profesor de estadística se interesa en la afirmación y entrevista aleatoriamente a 100 hombres y a 100 mujeres, encontrando que 34 hombres y 27 mujeres tienen autos en el campus. ¿Puede concluirse con un nivel del 5% que la afirmación del rector es falsa?

9.0.13 Ejercicios del 22 al 26

  1. En cierto país, se llevó a cabo un estudió entre los usuarios de teléfonos, un año después de que empresas distintas de la Empresa de Telefonía EMT dispusieran de servicio de comunicación a larga distancia. De una muestra aleatoria de 368 usuarios de la EMT, 92 manifestaron estar intentando aprender más sobre sus opciones, mientras que para una muestra aleatoria independiente de 116 usuarios de otras empresas, 37 manifestaron lo mismo. Contraste, al nivel de significancia del 5%, la hipótesis nula de que las proporciones poblacionales son iguales frente a una alternativa bilateral.
  1. Un equipo médico midió el nivel de cierto producto químico en la sangre de 15 sujetos antes y después afrontar una situación que producía ansiedad. La tabla de abajo muestra los resultados. Con base en esos datos y al nivel de 0,05, verifíquese si las situaciones que producen ansiedad aumentan el nivel de este producto químico en la sangre. Suponga que las poblaciones en cuestión están normalmente distribuidas.
  1. En un establecimiento escolar suburbano, se seleccionó al azar una muestra aleatoria de 25 alumnos de quinto grado (grupo 1) de una población de estudiantes perteneciente a familias en que ambos padres trabajan. Se seleccionó también una muestra aleatoria al azar de 15 estudiantes (grupo 2) del mismo grado y establecimiento escolar entre aquellos estudiantes que pertenecen a familias en que solamente el padre trabaja. El análisis de los puntajes de rendimiento escolar (en escala de 1 a 100) de los dos grupos dio los siguientes resultados: un puntaje promedio de 78 para el grupo 1 y de 85 para el grupo 2. La experiencia muestra que las poblaciones de puntajes para ambos grupos están distribuidas en forma aproximadamente normal, con varianzas de \(\sigma_1^2=81\) y \(\sigma_2^2=25\). Utilizando un nivel de significancia del 5% y con base en estos datos, determínese si es posible concluir que la media de la población de la que se seleccionó el grupo 1 es inferior a la media de la población de la que se seleccionó el grupo 2.
  1. Se llevó a cabo un experimento para comparar el deterioro abrasivo de dos materiales laminados diferentes. Para este menester, se probaron doce piezas del material 1, exponiendo cada una a una máquina para medir el deterioro. De la misma manera, se probaron diez piezas del material 2. En cada caso, se observó la profundidad del deterioro. Las muestras del material 1 dieron un deterioro promedio (registrado) de 85 unidades con una desviación estándar muestral de 4, mientras que las del material 2 dieron un promedio de 81 y una desviación estándar muestral de 5. ¿Puede concluirse que el deterioro abrasivo del material 1 excede al del material 2 por más de 2 unidades? Asúmase que las poblaciones son aproximadamente normales con varianzas iguales.
  1. Al probar la diferencia en el desgaste abrasivo de los dos materiales en el ejercicio 25, se asumió que las varianzas poblacionales desconocidas eran iguales. ¿Es esta justificación correcta?

9.0.14 Ejercicio 27

Una fábrica de queso verifica continuamente el nivel de contenido graso de su leche. El porcentaje de grasa no debe desviarse mucho del 2% (una desviación estándar del 10% es aceptable). Se obtuvo una muestra de 20 empaques de queso y se registró el porcentaje de grasa en cada uno. Los resultados fueron:

\[\begin{eqnarray*} && 1,85 \quad 2,25 \quad 2,01 \quad 1,90 \quad 1,97 \quad 1,80 \quad 2,05 \quad 2,23 \quad 1,65 \quad 1,86 \\ && 2,02 \quad 2,09 \quad 2,04 \quad 2,07 \quad 2,14 \quad 1,93 \quad 2,08 \quad 2,17 \quad 1,91 \quad 1,93 \end{eqnarray*}\]

  1. Construya un intervalo del 95% de confianza para la varianza de porcentajes de grasa respecto al 2%.

  2. Haga una prueba al nivel del 5% para determinar si la varianza en los porcentajes de grasa excede el 1%.

9.0.15 Ejercicio 28

Cuando un proceso de producción de bolas de rodamiento funciona correctamente, el peso de las bolas tiene una distribución normal con media 5 gramos y desviación típica 0,1 gramos. Al llevarse a cabo una modificación del proceso, el director de la fábrica sospecha que esto ha incrementado el peso medio de las bolas producidas, sin modificar la desviación típica. Se toma, entonces, una muestra aleatoria de 16 bolas.

  1. ¿Qué condición deben cumplir los valores del peso medio muestral \(\overline{X}\) para que \(H_0:\mu= 5\) no se rechace en favor de la alternativa \(H_1: \mu>5\) usando un nivel de significancia de 0,05?

  2. Determine la probabilidad de que \(H_0\) no sea rechazada si el verdadero peso medio es 5,05 gramos.

  3. Halle la potencia del contraste cuando el verdadero peso medio es 5,05 gramos.

Bibliografía

Consultar el documento RPubs :: Teoría de Probabilidad y Estadística Matemática (bibliografía).

 

 
If you found any ERRORS or have SUGGESTIONS, please report them to my email. Thanks.