29/07/25
Abstract
La teoría mencionada puede revisarse en la BIBLIOGRAFÍA recomendada. En Rpubs:: toc se pueden ver otros documentos de posible interés.
library(ggplot2)
library(dplyr)
library(tidyr)
library(tidyverse)
library(latex2exp) #Convierte fórmulas LaTeX en expresiones gráficas de R.
library(patchwork)
library(datos) #Versiones en español de los datos que utilizaremos en este capítulo
library(grid) #Se necesita para arrow()
library(pwr) #Para la potencia
library(reshape)
library(plotly)
#Para generar videos interctivos:
library(transformr)
library(av)
library(gifski)
library(gganimate)
A continuación, se enumeran algunos resultados que se aplicarán en este capítulo.Sus correspondientes demostraciones se pueden revisar en los siguientes documentos: Teoría de probabilidad y Distribución muestral.
Example 2.1 (Convolución de binomiales) Sean \(0\leq p \leq 1\) y \(n, m \in \mathbb{N}\) dados.
\[\begin{eqnarray} \mathcal{B}(n,p) \ast \mathcal{B}(m,p) = \mathcal{B}(n+m,p).\label{ec-convolucion-dos-binomial} \end{eqnarray}\]
Es decir, la convolución de dos binomiales es también una binomial. Este resultado se puede visualizar en la figura de abajo.
#library(ggplot2)
#library(latex2exp) #Convierte fórmulas LaTeX en expresiones gráficas de R. Ver annotate
valores <- 0:30
p <- 0.5
dens1 <- dbinom(x = valores, size = 8, prob= p)
dens2 <- dbinom(x = valores, size = 26, prob= p)
dens3 <- dbinom(x = valores, size = 34, prob= p)
df0 <- tibble::data_frame(x = valores, dens1 = dens1, dens2 = dens2, dens3 = dens3)
ggplot(df0, aes(x = valores)) +
geom_col(aes(y=dens1), fill="red",alpha=0.1) +
annotate("rect", xmin = 21.5, xmax = 28.5, ymin = 0.07, ymax = 0.11, fill= "#F8F9F9") +
annotate("text", x = 4, y = 0.29, parse = TRUE, size = 4, fontface ="bold",
label=latex2exp::TeX("$n=8$", output= "character")
) +
geom_col(aes(y=dens2), fill="orange",alpha=0.3)+
annotate("text", x = 13, y = 0.17, parse = TRUE, size = 4, fontface ="bold",
label=latex2exp::TeX("$n=26$", output= "character")
) +
geom_col(aes(y=dens3), fill="darkblue",alpha=10) +
annotate("text", x = 25, y = 0.08, parse = TRUE, size = 4, fontface ="bold",
label=latex2exp::TeX("$n=8+26=34$", output= "character")
) +
annotate("text", x = 25, y = 0.1, parse = TRUE, size = 4, fontface ="bold",
label=latex2exp::TeX("Convolution with:", output= "character")
) +
geom_segment(aes(x = 25, xend = 20, y = 0.064, yend = 0.04), #linetype = "dashed",
colour="black", size=0.3,
arrow = arrow(length = unit(0.3, "cm"))) +
labs(x="Valores de la variable aleatoria",
y="Probabilidades",
title="Convolution of two Binomial distributions (p=0.5)"
)
Definition 2.1 (Media y varianza empírica) Sean \(X_1, \ldots, X_n\) variables aleatorias. Entonces, la variable aleatoria
\[\overline{X}_{(n)}:=\frac{1}{n}(X_1 + \cdots + X_n)\]
se llama la media aritmética o media empírica de \(X_1, \ldots, X_n\) y a
\[S^2_{(n)}:= \frac{1}{n-1} \sum\limits_{k=1}^n (X_k-\overline{X}_{(n)})^2\]
se le llama varianza empírica.
Theorem 2.1 (Distribución t de Student) Sean \(X\), \(Y\), \(X_1, \ldots, X_n\) y \(Y_1, \ldots, Y_m\) variables aleatorias. Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) resp. \(S_{(m)}^2\) y \(\overline{Y}_{(m)}\) la varianza y media empírica de \(X_1, \ldots, X_n\) y de \(Y_1, \ldots, Y_m\), respectivamente. Supongamos que se tiene la independencia, por un lado, entre todas las \(X_i\); por otro lado, entre todas las \(Y_j\); y también entre \(X\) y \(Y\). Si \(\mathcal{T}(n)\) representa la distribución \(t\) de Student con \(n\) grados de libertad, entonces:
Si \(X \stackrel{\atop d}{=} \mathcal{N}(0,1)\) y \(Y\stackrel{\atop d}{=} \chi^2(n)\), entonces, \[t:= \frac{X}{\sqrt{Y/n}} \stackrel{\atop d}{=} \mathcal{T}(n)\]
Si \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu, \sigma^2)\) para cada \(i=1,\ldots, n\), entonces, se cumple que \[t:=\frac{\overline{X}_{(n)}- \mu}{S_{(n)} /\sqrt{n}} \stackrel{\atop d}{=} \mathcal{T}(n-1)\]
Sea \(X_i \stackrel{\atop d}{=} \mathcal{N}(\mu_1, \sigma^2)\) para cada \(i=1,\ldots, n\) y \(Y_j \stackrel{\atop d}{=} \mathcal{N}(\mu_2, \sigma^2)\) para cada \(j=1,\ldots, m\). Si \(S_{(n,m)}^2\) es la llamada varianza muestral combinada, entonces,
\[t:= \frac{\left(\overline{X}_{(n)} - \overline{Y}_{(m)}\right)\, - \, (\mu_1-\mu_2)}{\sqrt{\frac{S_{(n,m)}^2}{n} \,+\, \frac{S_{(n,m)}^2}{m}}} \stackrel{\atop d}{=} \mathcal{T}(m+n-2), \qquad \mbox{con}\qquad S_{(n,m)}^2:= \frac{(n-1)S_{(n)}^2 + (m-1)S_{(m)}^2}{m+n-2}\]
A continuación, vemos algunas distribuciones \(t\) de Student.
a<- 100
mean_sim <- 0
varianza <- a/(a-2)
std_sim <- sqrt(varianza)
grosor = 1 # Grosor de las líneas de la gráfica
ggplot(data = data.frame(u = 0:1000 / 100), mapping = aes(x = u)) +
xlim(c(-20, 20))+
labs(x = "Valores x",
y = "Densidades f(x)",
fill="",
title = "Diferentes densidades t de Student") +
stat_function(mapping = aes(colour = "Distbn. 1"),
fun = dt,
args = list(df = (1/100)*std_sim), size=grosor) +
stat_function(mapping = aes(colour = "Distbn. 2"),
fun = dt,
args = list(df = (1/20)*std_sim), size=grosor) +
stat_function(mapping = aes(colour = "Distbn. 3"),
fun = dt,
args = list(df = (1/5)*std_sim), size=grosor) +
stat_function(mapping = aes(colour = "Distbn. 4"),
fun = dt,
args = list(df = (1/1)*std_sim), size=grosor)+
scale_colour_manual(values = c("red", "blue", "black", "green")) +
scale_color_discrete(name = expression(paste("t", " ", "con", ":")),
labels = c(expression(paste(nu==1)),
expression(paste(nu==5)),
expression(paste(nu==20)),
expression(paste(nu==100))
)
) # Edit legend title and labels
Theorem 2.2 (Distribución F de Fisher) Sean \(X\), \(Y\), \(X_1, \ldots, X_n\) y \(Y_1\), \(\ldots\), \(Y_m\) variables aleatorias. Además, sean \(S_{(n)}^2\) y \(\overline{X}_{(n)}\) resp. \(S_{(m)}^2\) y \(\overline{Y}_{(m)}\) la varianza y media empírica de \(X_1, \ldots, X_n\) resp. \(Y_1, \ldots, Y_m\). Supongamos que se tiene la independencia, por un lado, entre todas las \(X_i\); por otro lado, entre todas las \(Y_j\); y también entre \(X\) y \(Y\). Si \(\mathcal{F}(m,n)\) representa la la distribución \(F\) de Fisher con \(m\) y \(n\) grados de libertad, entonces:
\[F:= \frac{X/m}{Y/n} = \frac{nX}{mY} \stackrel{\atop d}{=} \mathcal{F}(m,n)\]
\[F:= \frac{S_{(n)}^2 / \sigma_1^2}{S_{(m)}^2/\sigma^2_2} \stackrel{\atop d}{=} \mathcal{F}(n-1,m-1)\]
A continuación, vemos algunas distribuciones \(F\) de Fisher.
#library(dplyr)
#library(ggplot2)
#library(tidyr)
grosor = 1 # Grosor de las líneas de la gráfica
data.frame(f = 0:1000 / 100) %>%
mutate(df_01_01 = df(x = f, df1 = 1, df2 = 1),
df_02_01 = df(x = f, df1 = 2, df2 = 1),
df_05_02 = df(x = f, df1 = 5, df2 = 2),
df_10_01 = df(x = f, df1 = 10, df2 = 1),
df_100_100 = df(x = f, df1 = 100, df2 = 100)
) %>%
gather(key = "df", value = "density", -f) %>%
ggplot() +
geom_line(aes(x = f, y = density, color = df), size=grosor) +
scale_colour_manual(values = c("red", "blue", "black", "green", "grey")) +
ylim(c(0, 2.2)) +
xlim(c(0, 5)) +
labs(x = "Valores x",
y = "Densidades f(x)",
fill="",
title = "Diferentes densidades F de Fisher") +
scale_color_discrete(name = expression(paste("F", " ", "con", " ", "parámetros", ":")),
labels = c(expression(paste(m==1, ", ", " ", n==1)),
expression(paste(m==2, ", ", " ", n==1)),
expression(paste(m==5, ", ", " ", n==2)),
expression(paste(m==10, ", ", " ", n==1)),
expression(paste(m==100, ", ", " ", n==100))
)
) # Edit legend title and labels
Definition 2.2 (Distribucion-muestral) La distribución de un estadístico muestral recibe el nombre de distribución muestral o distribución en el muestreo.
En la imagen de abajo se ilustra gráficamente este concepto.
Theorem 2.3 (Teorema central del límite de Moivre-Laplace) Sea \(X_1, \ldots, X_n\) una muestra aleatoria de una población que tiene distribución \(\mathcal{B}(n,p)\). Si \(\overline{p}_{(n)}\) representa la proporción muestral de éxitos en la muestra, entonces,
\[\frac{\overline{p}_{(n)} - p}{\sqrt{p(1-p)/n}}\; \xrightarrow[n \to \infty] {d}\; \mathcal{N}(0,1)\]
En la práctica, el teorema será válido si \(n\geq 30\) o si \(np\geq 5\) y \(n(1-p)\geq 5\). Comparése con la tabla A.2 que se encuentra en el apéndice A.7 para diagramas y tablas (véase la sección correspondiente a la Bibliografía).
De manera gráfica, esta aproximación se puede visualizar así:
En el video de abajo, se ilustra un ejemplo relacionado con este teorema.
Simulando muestras:
# Entrega la media de una muestra de tamaño N:
xbarra <- function(FUN, N) { # N es el tamaño de la muestra
Valores <- FUN(N, 1, 0.5) # Valores k de las variables
mean(Valores) # Media de los valores
}
# Seleccionar R muestras de tamaño N y, de cada una, obtener sus medias (vector de tamaño R). Entrega un data frame con las medias (llamada "muestra_N"):
Media_Muestral <- function(FUN, N, R) {
name <- glue::glue("muestra_{N}")
rerun(R, xbarra(FUN, N)) %>%
map(data.frame) %>%
bind_rows() %>%
dplyr::rename(!!quo_name(name) := ".x..i..")
}
# Seleccionar R muestras de K diferentes tamaños n=(N1, N2,...NK) y, de cada una, obtener sus medias. Entrega un adta frame de RxK filas y 3 columnas ("simulaciones", "n" y "value=Medias")
montecarlo <- function(FUN, n, R) {
map_dfc(n, ~ Media_Muestral(FUN, .x, R)) %>%
cbind(simulaciones = 1:R) %>%
pivot_longer(-simulaciones, names_to = "n", values_to = "value") %>%
mutate(n = str_extract(n, "\\d+"), n = as.numeric(n))
}
# Al data frame anterior, se le agrega otra columna que contine los valores Z. Es decir, es un data frame de RxK filas y 4 columnas ("simulaciones", "n", "value=Medias" y "Z")
montecarlo_con_Z <- function(FUN, n, R, mu, sigma) {
montecarlo(FUN, n, R) %>%
dplyr::rename(Media = value) %>%
group_by(n) %>%
mutate(z = (Media - mu)/ (sigma/sqrt(n))) %>%
ungroup() %>%
mutate(n = factor(n, ordered = TRUE))
}
Distribución binomial:
#library(tidyverse)
FUN <- rbinom # Bernoulli con parámetros m=1 y p=0.5
m=1
p=0.5
n <- c(5, 10, 20, 30, 50, 100, 200, 400, 600) # Tamaño muestral n
R <- 3000 # Número de muestras de tamaño n que se van a seleccionar
mu <- m*p # Media de la variable
varianza <- m*p*(1-p) # Varianza de la variable
sigma <- sqrt(varianza) # Desviación de la variable
Muestreo <- montecarlo_con_Z(FUN, n, R, mu, sigma)
Muestreo %>%
ggplot(aes(z, fill = n)) +
geom_density(aes(group = NA)) +
gganimate::transition_states(n,
transition_length = 2,
state_length = 1
) +
stat_function(fun = dnorm, aes(color = 'Normal'),
args = list(mean = 0, sd = 1),
inherit.aes = FALSE,
size=1.5
) +
gganimate::enter_fade() +
gganimate::exit_shrink() +
labs(subtitle = "Sample size n= {closest_state}",
title = "Distribution of Sample Mean: binomial",
caption = "Theoretical distribution is standard normal",
y = "Sample mean from binomial") +
gganimate::view_follow() -> Densidad
# VIDEO OUTPUT:
#library(transformr)
#library(av)
#library(gifski)
#library(gganimate)
animate(Densidad +
enter_fade() +
exit_fly(y_loc = 1),
# La velocidad de fotogramas de la animación en fotogramas/segundo (predeterminado=10):
fps=5,
# La duración de la animación en segundos (sin configurar de forma predeterminada)
#duration = 30
renderer = av_renderer()
)
En capítulos anteriores, vimos que la información obtenida a partir de muestras aleatorias sirve para estimar los parámetros desconocidos de la población, mediante el cálculo de los estimadores puntuales o intervalos de confianza. En este capítulo, veremos que la información muestral también se puede utilizar para probar la validez de una afirmación}, conjetura* o hipótesis acerca del valor del parámetro de la población.
En general, una hipótesis es una explicación propuesta que puede, o no, ser cierta. Nuestra discusión se limitará a las hipótesis estadísticas.
Definition 3.1 (Hipótesis estadística) Una hipótesis estadística es una afirmación cuantitativa acerca de una o más poblaciones o, lo que es más frecuente, un conjunto de afirmaciones sobre uno o más parámetros de una o más poblaciones.
Las hipótesis estadísticas son de dos tipos: hipótesis nula e hipótesis alternativa.
Definition 3.2 (Hipótesis nula y alternativa) La hipótesis nula, que se simboliza por \(H_0\), es la hipótesis que se debe comprobar. La *hipótesis alternativa}, simbolizada por \(H_1\), es la hipótesis elegida como contraste a \(H_0\).
En general, si \(\theta\) es un parámetro poblacional y \(k\) es cualquier número real, entonces, la hipótesis alternativa \(H_1:\theta\ne k\) se llama alternativa bilateral y las hipótesis alternativas \(H_1:\theta<k\) y \(H_1:\theta>k\), alternativas unilaterales.
Una prueba de hipótesis está dada por los siguientes pasos:
Se parte de un modelo probabilístico asociado al problema, donde la variable de interés tiene una distribución que depende de un parámetro de interés \(\theta\). Según el problema se escoge una hipótesis (nula)} \(H_0: \theta \in \Theta_0\) junto con una alternativa* \(H_1: \theta \in \Theta_1\), donde \(\Theta_0 \cup \Theta_1\) es unión disyunta del espacio de parámeros \(\Theta\). Observe que \(\Theta_1\) no es necesariamente la alternativa lógica.
El modelo estadístico correspondiente está formado por una muestra \(X=(X_1, \ldots, X_n)^t\) de tamaño \(n\), cuya distribución \(f_\theta\) debe ser conocida para cada \(\theta\) y calculable por lo menos para \(\theta \in \Theta_0\). De una observavión concreta resultan los datos \(x=(x_1, \ldots, x_n)^t\).
Se escoge un estadístico \(T(X)\) unidimensional de tal manera que tiene sentido para el problema rechazar \(H_0\) con base en \(x\) si y sólo si \(T(x)\geq c\), donde \(c\) es determinado según uno de los siguientes criterios dados en las secciones 4.0.1, 5 ó 4.0.2.
Definition 3.3 Considere las notaciones señaladas en los párrafos anteriores. Entonces:
A la variable \(T(X)\) se le llama estadístico de prueba.
Al número \(c\), valor crítico.
Al conjunto \(\{x\in \mathbb{R}^n \, / \, T(x)\geq c\}\) de todos los datos \(x\) para los cuales se rechaza \(H_0\) se le llama región crítica.
Considere el siguiente problema.
Example 3.1 Un productor de fármacos afirma que tiene una droga cuya aplicación debe aumentar la probabilidad para que nazca una niña, del porcentaje de 50% hasta 70%, por lo menos. Se quiere mirar la validez de esta afirmación. La solución podría consistir en los siguientes pasos:
Paso 1:
Se puede asociar al problema el modelo probabilístico, en el cual la variable de interés nacimiento de un bebé está representada por la variable aleatoria \(X\sim \mathcal{B}(1,p)\) con las codificaciones
\[X=\left\{ \begin{array}{ll} 1, & \hbox{si el bebé es una niña;} \\ 0, & \hbox{si el bebé es un niño.} \end{array} \right.\]
Paso 2:
Es decir, el parámetro de interés es \(\theta = p\), la probabilidad de que nazca una niña. Como hipótesis \(H_0\) se puede escoger \(p=0,5\) que refleja la situación normal, contra la alternativa \(H_1\) de que \(p=0,7\) que refleja la afirmación del productor.
Paso 3:
Para ver cómo realmente actúa la droga en cuestión, se escogen, digamos \(n=20\) mujeres, independientemente. Se aplica la droga a cada una de ellas y se observa, después si la mamá \(i\) da a luz a una niña o a un niño. Así se obtiene el modelo estadístico correspondiente, dado por una muestra \(X=(X_1, \ldots, X_n)^t\) de tamaño \(n=20\), con variables \(X_i\sim \mathcal{B}(1,p)\). Para un experimento concreto se obtienen los datos \(x=(x_1, \ldots, x_n)^t\), siendo cada \(x_i\in \{0,1\}\).
Paso 4:
Se apuntará \(T(x)= \sum\limits_{i=1}^n x_i\), el número de las niñas entre los \(n=20\) bebés nacidos, que es un valor del estadístico \(T(X) = \sum\limits_{i=1}^n X_i \sim \mathcal{B}(n,p)\). Compárese con el ejemplo 2.1.
Paso 5:
Intuitivamente se rechazará la hipótesis \(H_0\) si \(T(x)\geq c\) para un valor de \(c\) suficientemente grande, (o sea, si hay muchas niñas).
Es claro que para \(T(x)=20\) se rechazará \(H_0\) en favor de la afirmación del productor.
Para \(T(x)=19\) también se rechazará \(H_0\) en favor de la afirmación del productor.
Pero, ¿con cuál número empiezan las dudas? ¿Desde cuál número se va a creer más en \(H_0\) que en \(H_1\)? Para dar respuestas a estas inquietudes, véase los criterios de las secciones siguientes.\(\blacktriangleleft\)
Se escoge un \(c\) tal que, para cierto \(\alpha \in (0,1)\) fijo se cumple que
\[\begin{equation} P\big(T(X)\geq c \, / \, H_0\big) \;= \; \sup\limits_{\theta \in \Theta_0} P\big(T(X)\geq c \, / \, \theta\big) \leq \alpha \tag{4.1} \end{equation}\]
y que esta probabilidad sea lo más cercana posible a \(\alpha\). Aquí:
\(T(X)\geq c \, / \, H_0\) significa rechazar \(H_0\) a pesar de que \(H_0\) fuese correcta, una decisión errónea del investigador y es llamado error de tipo I.
\(T(X)\geq c \, / \, \theta\) significa rechazar \(H_0\) a pesar de que \(\theta\) está en \(\Theta_0\).
Entonces, escogiendo \(c\) como antes, significa que se controla la probabilidad del error de tipo I por medio del llamado nivel de significancia \(\alpha\). También es usual decir que se rechaza al nivel de \(\alpha\). Para la práctica, los niveles más usados son \(\alpha= 5\%\), \(1\%\) ó \(0.1\%\).
Example 4.1 Considere la situación planteada en el ejemplo 3.1. En ese ejemplo, ya hemos dicho que el estadístico de prueba es
\[T(X) = \sum\limits_{i=1}^n X_i \sim \mathcal{B}(20,p)\]
y que \(H_0: p=0,5\). Ahora, utilizando una tabla binomial \(\mathcal{B}(20;0,5)\), podemos determinar los posibles valores críticos \(c\) junto con las probabilidades del error de tipo I. En la tabla de abajo se presenta esta información.
Entonces, la condición (4.1) se interpreta de la siguiente manera:
Se rechaza \(H_0\) al nivel de 5% si \(T(x) \in \{15,16, \ldots, 20\}\).
Se rechaza \(H_0\) al nivel de 1% si \(T(x) \in \{16,17, \ldots, 20\}\).
Se rechaza \(H_0\) al nivel de 0,1% si \(T(x) \in \{18,19, 20\}\).
Las situaciones anteriores se pueden visualizar en las figuras de abajo.
Las gráficas anteriores se generaron con los siguientes códigos que se indican abajo:
#library(ggplot2)
#library(tidyverse)
#library(latex2exp) #Convierte fórmulas LaTeX en expresiones gráficas de R. Ver annotate
k <- seq(0, 20, 1)
y <- dbinom(k,20,0.5)
dat <- cbind.data.frame(k,y)
alfa <- 0.05
b1 <- dat %>%
ggplot() +
geom_col(aes(x = k, y=y, fill = k > qbinom(alfa,20, 0.5,lower.tail=F))#, color = 'black'
) +
xlim(0,23) + ylim(-.015,.18) +
annotate("rect", xmin =15, xmax = 19, ymin = 0.04, ymax = 0.06, fill= "lightyellow") +
annotate("text", x = 4, y = 0.10, parse = TRUE, size = 4, fontface ="bold",
label=TeX("$P(T(x) < c) > \\alpha$;", output= "character"), colour="blue"
) +
annotate("text", x = 4, y = 0.085, parse = TRUE, size = 3, fontface ="bold",
label=latex2exp::TeX("$c=0, 1, 2, \\ldots, 13, 14$ ", output= "character"), colour="blue"
) +
annotate("text", x = 18, y = 0.10, parse = TRUE, size = 4, fontface ="bold",
label=latex2exp::TeX("$P(T(x) \\geq c) \\leq \\alpha;$ ", output= "character"), colour="red"
)+
annotate("text", x = 18, y = 0.085, parse = TRUE, size = 3, fontface ="bold",
label = latex2exp::TeX("$c= 15, 16, 17, 18, 19, 20$", output= "character"), colour="red"
) +
annotate("text", x = 17, y = 0.05, parse = TRUE, size = 4, fontface ="bold",
label = latex2exp::TeX("Area: $\\alpha= 0.05$", output= "character"), colour="red"
) +
geom_vline(aes(xintercept=14.5), linetype="solid", size=1, colour="blue") +
geom_hline(aes(yintercept=0), linetype="solid", size=1, colour="black") +
annotate("text", label = "No rechazar", x = 10, y = -.01, size = 4, colour = "blue") +
annotate("text", label = "Rechazar", x = 17, y = -.01, size = 4, colour = "red") +
labs(x="Valores", y="Probabilidades", title="Fig. 1: T(X) es binomial(n=20, p=0.5); nivel=5%") +
theme_minimal()+
theme(legend.position="none") +
scale_fill_manual(values = c("lightblue", "red")) + #Cambiar los colores
geom_segment(aes(x = 17, xend = 15.5, y = 0.0425, yend = 0.01), #linetype = "dashed",
colour="black", size=0.3,
arrow = arrow(length = unit(0.3, "cm"))
)
b1
#library(ggplot2)
#library(tidyverse)
#library(latex2exp) #Convierte fórmulas LaTeX en expresiones gráficas de R. Ver annotate
k <- seq(0, 20, 1)
y <- dbinom(k,20,0.5)
dat <- cbind.data.frame(k,y)
alfa <- 0.01
b2 <- dat %>%
ggplot() +
geom_col(aes(x = k, y=y, fill = k > qbinom(alfa,20, 0.5,lower.tail=F))#, color = 'black'
) +
xlim(0,23) + ylim(-.015,.18) +
annotate("rect", xmin =16, xmax = 20, ymin = 0.04, ymax = 0.06, fill= "lightyellow") +
annotate("text", x = 4, y = 0.10, parse = TRUE, size = 4, fontface ="bold",
label=latex2exp::TeX("$P(T(x) < c) > \\alpha$;", output= "character"), colour="blue"
) +
annotate("text", x = 4, y = 0.085, parse = TRUE, size = 3, fontface ="bold",
label=latex2exp::TeX("$c=0, 1, 2, \\ldots, 13, 14, 15$ ", output= "character"), colour="blue"
) +
annotate("text", x = 18.5, y = 0.10, parse = TRUE, size = 4, fontface ="bold",
label=latex2exp::TeX("$P(T(x) \\geq c) \\leq \\alpha;$ ", output= "character"), colour="red"
)+
annotate("text", x = 18.5, y = 0.085, parse = TRUE, size = 3, fontface ="bold",
label = latex2exp::TeX("$c= 16, 17, 18, 19, 20$", output= "character"), colour="red"
) +
annotate("text", x = 18, y = 0.05, parse = TRUE, size = 4, fontface ="bold",
label = latex2exp::TeX("Area: $\\alpha= 0.01$", output= "character"), colour="red"
) +
geom_vline(aes(xintercept=15.5), linetype="solid", size=1, colour="blue") +
geom_hline(aes(yintercept=0), linetype="solid", size=1, colour="black") +
annotate("text", label = "No rechazar", x = 10, y = -.01, size = 4, colour = "blue") +
annotate("text", label = "Rechazar", x = 18, y = -.01, size = 4, colour = "red") +
labs(x="Valores", y="Probabilidades", title="Fig. 2: T(X) es binomial(n=20, p=0.5); nivel=1%") +
theme_minimal()+ #Etiquetas
theme(legend.position="none") +
scale_fill_manual(values = c("lightblue", "red")) + #Cambiar los colores
geom_segment(aes(x = 18, xend = 16.5, y = 0.0415, yend = 0.0015), #linetype = "dashed",
colour="black", size=0.3,
arrow = arrow(length = unit(0.3, "cm"))
)
b2
#library(ggplot2)
#library(tidyverse)
#library(latex2exp) #Convierte fórmulas LaTeX en expresiones gráficas de R. Ver annotate
k <- seq(0, 20, 1)
y <- dbinom(k,20,0.5)
dat <- cbind.data.frame(k,y)
alfa <- 0.001
b3 <- dat %>%
ggplot() +
geom_col(aes(x = k, y=y, fill = k > qbinom(alfa,20, 0.5,lower.tail=F))#,color = 'black'
) +
xlim(0,23) + ylim(-.015,.18) +
annotate("rect", xmin =18, xmax = 22, ymin = 0.04, ymax = 0.06, fill= "lightyellow") +
annotate("text", x = 4, y = 0.10, parse = TRUE, size = 4, fontface ="bold",
label=latex2exp::TeX("$P(T(x) < c) > \\alpha$;", output= "character"), colour="blue"
) +
annotate("text", x = 4, y = 0.085, parse = TRUE, size = 3, fontface ="bold",
label=latex2exp::TeX("$c=0, 1, 2, \\ldots, 13, 14, 15, 16, 17$ ", output= "character"), colour="blue"
) +
annotate("text", x = 20, y = 0.10, parse = TRUE, size = 4, fontface ="bold",
label=latex2exp::TeX("$P(T(x) \\geq c) \\leq \\alpha;$ ", output= "character"), colour="red"
)+
annotate("text", x = 20, y = 0.085, parse = TRUE, size = 3, fontface ="bold",
label = latex2exp::TeX("$c= 18, 19, 20$", output= "character"), colour="red"
) +
annotate("text", x = 20, y = 0.05, parse = TRUE, size = 4, fontface ="bold",
label = latex2exp::TeX("Area: $\\alpha= 0.001$", output= "character"), colour="red"
) +
geom_vline(aes(xintercept=17.5), linetype="solid", size=1, colour="blue") +
geom_hline(aes(yintercept=0), linetype="solid", size=1, colour="black") +
annotate("text", label = "No rechazar", x = 10, y = -.01, size = 4, colour = "blue") +
annotate("text", label = "Rechazar", x = 21, y = -.01, size = 4, colour = "red") +
labs(x="Valores", y="Probabilidades", title="Fig. 3: T(X) es binomial(n=20, p=0.5); nivel=0.1%") +
theme_minimal()+ #Etiquetas
theme(legend.position="none") +
scale_fill_manual(values = c("lightblue", "red")) + #Cambiar los colores
geom_segment(aes(x = 20, xend = 18.5, y = 0.0425, yend = 0.001), #linetype = "dashed",
colour="black", size=0.3,
arrow = arrow(length = unit(0.3, "cm"))
)
b3
En resumen, podemos formular las siguientes conclusiones:
Si se observan \(t=0, 1, 2, \ldots, 14\) nacimientos de niñas, entonces se acepta \(H_0:p=0,5\), rechazando la afirmación del productor.
Si se observan \(t=15\) nacimientos de niñas, esto puede ser un indicio para que el productor tenga la razón.
Si se observan \(t=16\) ó \(17\), esto se interpreta como desviación significativa de \(H_0\), creyendo más en la afirmación del productor.
Y, finalmente, si se observan por lo menos \(t=18\), entonces se acepta de manera muy significativa la afirmación del productor.\(\blacktriangleleft\)
Hasta ahora se ha usado solamente un criterio sobre un tipo de error que puede cometer el investigador. Pero para llegar a pruebas de hipótesis más confiables, se debe tener en cuenta también el otro tipo de error posible. Este criterio considera la posibilidad de controlar los dos tipos de errores.
Ahora se trata de escoger un valor crítico \(c\) tal que se cumpla la expresión (4.1) y que, además, para cierto \(\beta\in (0,1)\) fijo, se cumpla:
\[\begin{equation} P\big(T(X)<c \, / \, H_1\big) \;= \; \sup\limits_{\theta \in \Theta_1} P\big(T(X) < c \, / \, \theta\big) \leq \beta \tag{4.2} \end{equation}\]
y que esta probabilidad sea lo más cercana posible a \(\beta\) (lo más pequeño posible). Aquí:
\(T(X)< c \, / \, H_1\) significa aceptar \(H_0\) a pesar de que \(H_1\) fuese correcta, una decisión errónea del investigador y es llamado error de tipo II.
\(T(X)< c \, / \, \theta\) significa aceptar \(H_0\) a pesar de que \(\theta_1\) está en \(\Theta_1\).
Sería deseable asegurar que la probabilidad del error de tipo II esté cerca de 0. Pero, desafortunadamente, no es posible controlar las probabilidades de ambos errores al mismo tiempo (si el tamaño \(n\) de la muestra es fijado de antemano): ambos errores son indirectamente proporcionales (como se ilustra en la figura de abajo).
Comenzaremos creando los datos para dos distribuciones (en nuestro caso van a ser normales) y tres polígonos que necesitaremos (para alfa, beta y 1-beta).
#library(tidyverse)
#library(datos) #versiones en español de los datos que utilizaremos en este capítulo
#library(ggplot2)
#library(grid) # need for arrow()
m1 <- 0 # mu H0
sd1 <- 1.5 # sigma H0
m2 <- 3.5 # mu HA
sd2 <- 1.5 # sigma HA
z_crit <- qnorm(1-(0.05/2), m1, sd1)
#Establecer longitud de las colas
min1 <- m1-sd1*4
max1 <- m1+sd1*4
min2 <- m2-sd2*4
max2 <- m2+sd2*4
#Crear una secuencia x
x <- seq(min(min1,min2), max(max1, max2), .01)
#Generar distribución normal No. 1
y1 <- dnorm(x, m1, sd1)
#Colocar en un data.frame
df1 <- data.frame("x" = x, "y" = y1)
#Generar distribución normal No. 2
y2 <- dnorm(x, m2, sd2)
#Colocar en un data.frame
df2 <- data.frame("x" = x, "y" = y2)
#Polígono para alpha
y.poly <- pmin(y1,y2)
poly1 <- data.frame(x=x, y=y.poly)
poly1 <- poly1[poly1$x >= z_crit, ]
poly1<-rbind(poly1, c(z_crit, 0)) # add lower-left corner
#Polígono para beta
poly2 <- df2
poly2 <- poly2[poly2$x <= z_crit,]
poly2<-rbind(poly2, c(z_crit, 0)) # add lower-left corner
#Polígono para la potencia = 1-beta
poly3 <- df2
poly3 <- poly3[poly3$x >= z_crit,]
poly3 <-rbind(poly3, c(z_crit, 0)) # add lower-left corner
#Combinar los polígonos
poly1$id <- 3 #alpha, da el número más alto para que sea la capa superior
poly2$id <- 2 #beta
poly3$id <- 1 #potencia 1 - beta
poly <- rbind(poly1, poly2, poly3)
poly$id <- factor(poly$id, labels=c("power","beta","alpha"))
Ahora, con todos los datos que necesitamos, crearemos el diagrama deseado.
Una solución al dilema mencionado anteriormente es diseñar la prueba de tal manera que el error de tipo II no sea tan grave. Es decir, se deben escoger \(H_0\) y \(H_1\) adecuadamente. Otra solución, a veces posible, es aumentar \(n\) hasta que sí se puedan cumplir (4.1) y (4.2). En este caso, como \(n\) es grande, se usan aproximaciones de la distribución del estadístico de prueba, preferiblemente con una distribución normal.
Example 4.2 Considere nuevamente la situación planteada en el ejemplo 3.1. Siguiendo el criterio de la sección 4.0.2, se busca ahora el tamaño muestral \(n\) más grande posible y el valor \(c\), tales que se cumplan simultaneamente las dos condiciones siguientes:
Condición 1: \(\quad P\big(T(X)\geq c \, / \, p=0,5\big) \; = \; \alpha\), por ejemplo, con \(\alpha=0,01\);
Condición 2: \(\quad P\big(T(X)<c \, / \, p=0,7\big) \;= \; \beta\), por ejemplo, con \(\beta=0,05\).
Para \(n\) grande, podemos aplicar el teorema de aproximación de la binomial a la normal. Véase el teorema 2.3. En este caso, la probabilidades anteriores se pueden reescribir de la siguiente manera:
Teniendo en cuenta la condición 1:
\[0,01 \;= \; P\big(T(X)\geq c \, / \, p=0,5\big)\;= \; 1-P\big(T(X)\leq c-1 \, / \, p=0,5\big) \;= \; 1- \Phi\left(\frac{c-0,5n-0,5}{\sqrt{0,25 n}}\right)\]
Al aplicar la tabla normal, obtenemos: \[\begin{equation} \frac{c-0,5n-0,5}{\sqrt{0,25 n}} \;= \; 2,325 \tag{4.3} \end{equation}\]
Teniendo en cuenta la condición 2:
\[0,05 \;= \; P\big(T(X)\leq c-1 \, / \, p=0,7\big)\;= \; \Phi\left(\frac{c-0,5n-0,5}{\sqrt{0,21 n}}\right)\]
Al aplicar la tabla normal, obtenemos:
\[\begin{equation} \frac{c-0,7n-0,5}{\sqrt{0,21 n}}\;= \; -1,64 \tag{4.4} \end{equation}\]
Al resolver simultaneamente las dos ecuaciones (4.3) y (4.4), obtenemos que se deben escoger \(n=92\) y \(c=58\).
En conclusión:
Si se observan \(t=58, 59, \ldots, 92\) nacimientos de niñas, entonces se rechaza \(H_0:p=0,5\), aceptando la afirmación del productor y cometiendo un error de tipo I con una probabilidad máxima de un 1%.
Si se observan \(t=0, 1, \dots, 57\) nacimientos de niñas, entonces no se acepta la afirmación del productor y se comete un error de tipo II con una probabilidad máxima de 5%. \(\blacktriangleleft\)
Este criterio es muy importante para la práctica y está muy relacionado con el criterio del error de tipo I. Véase la sección 4.0.1. Como la escogencia de un nivel \(\alpha\), desde un principio, depende mucho de la opinión subjetiva, se calcula alternativamente el valor \(P\big(T(X)\geq t\, / \, H_0\big)\) para \(t=T(x)\), que resulta de los datos \(x\). A este valor se le llama \(P\)-valor (o valor \(P\)), correspondiente a la hipótesis \(H_0\) y a la observación concreta \(x\).
Definition 5.1 (P-valor) El \(P\)-valor (o valor \(P\)) es el mínimo nivel de significancia en el cual la hipótesis nula \(H_0\) sería rechazada cuando se utiliza un procedimiento de prueba especificado con un conjunto dado de información.
El \(P\)-valor que se calcula dependerá siempre de la distribución utilizada (normal, \(t\) de Student, Chi-cuadrada o \(F\) de Fisher) y del tipo de prueba que vayamos a realizar (prueba de una cola a la izquierda, prueba de una cola a la derecha o prueba de dos colas), como se presenta en el siguiente teorema:
Theorem 5.1 (P-valor) Supongamos que la distribución muestral del estadístico de prueba \(X\) es la normal estándar, \(t\) de Student, \(F\) de Fisher o Chi-cuadrada, en donde los grados de libertad de las últimas tres distribuciones dependerán de los supuestos que se deben verificar para realizar un determinado procedimiento de prueba. Si \(x\) es el valor calculado de \(X\), entonces el \(P\)-valor es:
\[\text{$P$-valor} \;= \; \begin{cases} P(X\leq x), & \text{para una prueba de una cola a la izquierda}, \\ P(X\geq x), & \text{para una prueba de una cola a la derecha}, \\ 2\,P(X\geq |x|),& \text{para una prueba de dos colas}. \end{cases} \]
Proof:
Ver la demostración en la literatura citada.\(\blacksquare\)
Una vez que el \(P\)-valor haya sido calculado, como se explicó en el teorema 5.1, la conclusión en cualquier nivel de significancia \(\alpha\) particular resulta de comparar el \(P\)-valor con \(\alpha\). Así, entonces:
Si \(P\)-valor \(\leq \alpha\), entonces, rechace \(H_0\) al nivel \(\alpha\).
Si \(P\)-valor \(> \alpha\), entonces, no rechace \(H_0\) al nivel \(\alpha\).
Remark:
De acuerdo al criterio del error de tipo I , un \(P\)-valor se interpreta con:
\(\text{$P$-valor} \leq 0.1\%\) como desviación muy significativa de \(H_0\).
\(0.1\% < \text{$P$-valor} \leq 1\%\) como desviación significativa de \(H_0\).
\(1\% < \text{$P$-valor} < 5\%\) como desviación casi significativa de \(H_0\).
A menor \(P\)-valor, mayor tranquilidad para rechazar la hipótesis \(H_0\), porque la probabilidad de cometer un error de tipo I será más pequeña. Por el contrario, para un \(P\)-valor \(>5\%\), se acepta la hipótesis \(H_0\) en el sentido de que no se pudo encontrar una desviación algo significativa. Lo más conveniente, es hablar de no rechazar \(H_0\).
Example 5.1 Considere nuevamente la situación planteada en el ejemplo 3.1. Sabemos que \(n=20\) y que \(H_0:p=0,5\). Supongamos que tenemos una prueba de una cola a la derecha y que la proporción muestral de niñas es de \(\overline{p}= 0,30\). Se puede observar que podemos aplicar el teorema de Moivre-Laplace. Véase el teorema 2.3. Por tanto, un valor del estadístico de prueba \(Z\) será
\[Z \;=\; \frac{0,3 - 0,5}{\sqrt{(0,5)(1-0,5)/20}} \;= \; -1,79\]
Por consiguiente, de la tabla normal y teniendo en cuenta el teorema 5.1, el \(P\)-valor es:
\[\text{$P$-valor}\;= \; P(Z\geq -1,79) \;= \; 1- 0,0367 \;= \; 0,9633\]
Por tanto, de acuerdo con la definición 5.1, \(H_0\) no se rechazaría para cualquier nivel \(\alpha\). \(\blacktriangleleft\)
Para una prueba de hipótesis como la descrita en la sección 3.0.2 puede ser conveniente analizar la llamada función potencia.
Definition 6.1 (Potencia de una prueba) Para todo \(\theta \in \Theta\), la función mostrada abajo recibe el nombre de función potencia:
\[\mathcal{P}(\theta) \;= \; P\big(T(X) \geq c \, / \, \theta\big)\]
Remark:
Si \(\mathcal{P}\) es creciente en \(\theta\) y \(\theta_0<\theta_1\), entonces son equivalentes las dos pruebas siguientes:
\(H_0: \theta=\theta_0\) vs \(H_1: \theta=\theta_1\).
\(H_0: \theta\leq \theta_0\) vs \(H_1: \theta\geq \theta_1\).
porque, en este caso, valen
\[\sup\limits_{\theta\leq \theta_0} \mathcal{P}(\theta) = \mathcal{P}(\theta_0), \qquad \sup\limits_{\theta\geq \theta_1} [1-\mathcal{P}(\theta)] = 1-\mathcal{P}(\theta_1)\]
Además, a mayor \(n\), mayor es la pendiente de la función de potencia entre \(\theta_0\) y \(\theta_1\). En la figura de abajo aparece una gráfica típica de una función potencia.
Example 6.1 Se sabe que cierto tipo de metal no presenta daños visibles el 25% de las veces en que se pone a prueba a temperaturas de 150 grados centígrados. Con el fin de aumentar este porcentaje, se ha propuesto un tipo de pintura para el metal. Sea \(p\) la proporción de todas las muestras de metales sometidos a temperaturas de 150 grados centígrados que no presentan daño visible con esta nueva pintura. Las hipótesis son \(H_0: p=0.25\) (sin mejoría) vs \(H_1: p>0.25\). Para el experimento se han seleccionado \(n=20\) muestras de metal con esta nueva pintura. De manera intuitiva, supongamos que \(H_0\) debe ser rechazada si un número importante de los metales no muestra daño (digamos, más de 7) y respóndanse las siguientes cuestiones:
Si \(X\) es la variable aleatoria que representa el número de metales de la muestra sin daño visible, ¿cuál es la distribución de \(X\) cuando \(H_0\) es verdadera?
Halle \(\alpha(0.25)\), es decir, la probabilidad de cometer un error de tipo I cuando \(p=0.25\). Interprete su respuesta.
Halle \(\beta(0.3)\), es decir, la probabilidad \(\beta\) de cometer un error de tipo II cuando \(p=0.3\). Interprete su respuesta.
Halle \(\beta(p)\) y \(\mathcal{P}(p)\) para cada uno de los siguientes valores de \(p\): 0.0, 0.1, 0.2, \(\ldots\), 0.8, 0.9 y 1.0. Grafique ambas funciones.
Solution:
Inciso (a) :
Cuando \(H_0\) es verdadera, \(X\) tiene distribución binomial con parámetros \(n=20\) y \(p=0,25\).
Inciso (b):
Con base en el inciso (a), tenemos que:
\[\begin{eqnarray*} \alpha &=& P(\text{error tipo I}) \;= \; P(\text{$H_0$ es rechazada cuando es verdadera}) \\ &=& P(\text{$X\geq 8$ cuando $X$ es binomial con $n=20$ y $p=0.25$})\\ &=& 1\, - \, B(7; 20; 0.25) \;= \; 1- 0.898 \;= \; 0.102 \end{eqnarray*}\]
Es decir, cuando \(H_0\) es verdadera, aproximadamente 10% de todos los experimentos formados por 20 muestras de metal con la nueva pintura podrían llevar a que \(H_0\) sea incorrectamente rechazada.
\(p\) | \(\alpha(p)\) |
---|---|
0.00 | 0.000 |
0.10 | 0.000 |
0.20 | 0.032 |
0.25 | 0.102 |
0.30 | 0.228 |
0.40 | 0.584 |
0.50 | 0.868 |
0.60 | 0.979 |
0.70 | 0.999 |
0.80 | 1.000 |
0.90 | 1.000 |
1.00 | 1.000 |
Inciso (c):
El valor de \(\beta\) cuando \(p=0,3\) es:
\[\begin{eqnarray*} \beta(0,3) &=& P(\text{error tipo II cuando $p=0,3$}) \\ &=& P(\text{$H_0$ no es rechazada cuando es falsa})\\ &=& P(\text{$X\leq 7$ cuando $X$ es binomial con $n=20$ y $p=0,3$})\\ &=& B(7; 20; 0,3) \;= \; 0,772 \end{eqnarray*}\]
Cuando \(p\) es en realidad \(p=0,3\), en lugar de 0,25 (una pequeña desviación de \(H_0\)), casi 77% de todos los experimentos formados por 20 muestras de metal con la nueva pintura podrían llevar a que \(H_0\) no fuese incorrectamente rechazada.
Inciso (d):
La siguiente tabla muestra \(\beta\) para los valores seleccionados de \(p\) (cada uno calculado para la región de rechazo \(X\geq 8\)):
\(p\) | \(\beta(p)\) | \(\mathcal{P}(p)= 1- \beta(p)\) |
---|---|---|
0.0 | 1.000 | 0.000 |
0.1 | 1.000 | 0.000 |
0.2 | 0.968 | 0.032 |
0.3 | 0.772 | 0.228 |
0.4 | 0.416 | 0.584 |
0.5 | 0.132 | 0.868 |
0.6 | 0.021 | 0.979 |
0.7 | 0.001 | 0.999 |
0.8 | 0.000 | 1.000 |
0.9 | 0.000 | 1.000 |
1.0 | 0.000 | 1.000 |
Y abajo se muestran las respectivas gráficas.
library(ggplot2)
p2 <- seq(from=0, to=1, by=0.001)
f <- round(pbinom(k, n, p2),3)
cf <- 1-f
Tabla <- as.data.frame(cbind(p2, f, cf))
Tabla %>%
ggplot()+
geom_point(aes(x=p2, y=f, color="beta"), size=1.5) +
geom_point(aes(x=p2, y=cf, color="potencia"), size=1.5) +
labs( x="Probabilidad p", y=""
#y= expression("Potencia="~ 1- beta(p))
) +
labs(color = "Logits")+
#ylim(0, 100)+
facet_wrap(. ~ "Probabilidad de cometer error tipo II vs Potencia") +
theme_bw(base_size = 12) +
#theme(legend.position = "none")+
scale_color_manual(values = c("beta" = "darkblue","potencia" = "red")) +
scale_color_discrete(name = expression(paste("Convenciones", ":")),
labels = c(expression(paste(beta(p))), expression(paste(1-beta(p)))
)
)
Se puede observar que \(\beta\) disminuye (o sea, que la potencia aumenta) a medida que el valor de \(p\) se aleja a la derecha del valor nulo de 0.25. De manera intuitiva, cuanto mayor sea la desviación de \(H_0\) es menos probable que dicha desviación no sea detectada. \(\blacktriangleleft\)
Al realizar la prueba \(t\) de Student para comparar las medias entre dos grupos, es importante (e interesante) determinar qué tanto influyen el tamaño de los efectos y/o los tamaños muestrales desiguales de los grupos que se comparan sobre la potencia de la prueba. Formalmente, la potencia se puede definir como la probabilidad de rechazar la hipótesis nula cuando la hipótesis alternativa es verdadera. De manera informal, la potencia es la capacidad de una prueba estadística para detectar un efecto, si el efecto realmente existe. Generalmente, desequilibrios muy grandes no tendrán una potencia estadística adecuada para detectar (incluso tamaños de efecto grandes asociados con un factor), lo que lleva a una alta probabilidad de cometer un error de tipo II. Para justificar este razonamiento, puede tener en cuenta los siguientes ejemplos que se indican abajo.
Example 7.1 Para cada tamaño fijo de los efectos \(d\), la idea ahora es modelar la relación entre el tamaño muestral y la potencia (manteniendo constante el nivel de significancia \(\alpha = 0.05\)). En las figuras de abajo se visualizan los resultados para tamaño de efecto muy pequeño (\(d=0.1\)), pequeño (\(d=0.2\)), mediano (\(d=0.5\)) y grande (\(d=0.8\)).
Primera gráfica
#Se necesita el paquete pwr
if(!require(pwr)){install.packages("pwr");library("pwr")}
# t-TEST
# Se aplicará power.t.test del paquete stats (ya en R). Calcula la potencia de la prueba t de una o dos muestras, o determina los parámetros para obtener un valor particular de la potencia.
d<-seq(.1,2,by=.1) # 20 tamaños de los efectos
n<-1:150 # Tamaños muestrales
t.test.power.effect <-as.data.frame(do.call("cbind",lapply(1:length(d),function(i)
{
sapply(1:length(n),function(j)
{
power.t.test(n=n[j],d=d[i],sig.level=0.05,power=NULL,type= "two.sample")$power
})
})))
# Si algunas potencias no se pueden calcular, se ajustan a cero:
t.test.power.effect[is.na(t.test.power.effect)] <- 0
colnames(t.test.power.effect)<-paste (d,"effect size")
#Graficando los resultados
prueba <-t.test.power.effect #data frame de 150 X 20 (para graficar)
cuts_num<-c(2,5,8) # cortes
#Cortes basados en: Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences (2nd ed.). Hillsdale, NJ: Lawrence Erlbaum Associates, Publishers.
cuts_cat<-c("pequeño","medio","grande")
columnas <- 1:ncol(prueba) #Lista de los valores 1:20
color_linea<-rainbow(length(columnas), alpha=.5) # Lista de 20 colores
grosor_linea=3 # Grosor de la línea
#Para el tipo de línea: (“blank”, “solid”, “dashed”, “dotted”, “dotdash”, “longdash”, “twodash”) ó (0, 1, 2, 3, 4, 5, 6).
#Note que lty = “solid” is idéntica a lty=1.
tipo_linea <- rep(1,length(color_linea)) #Repetir length(color)=20 veces el 1
tipo_linea[cuts_num]<-c(2:(length(cuts_num)+1)) #Asignar 2, 3, 4 en las posiciones 2, 5, 8 de tipo_linea
#Resaltar posiciones importantes
cuts_num<-c(2,5,8) # Cortes
#Cortes basados en: Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sciences (2nd ed.). Hillsdale, NJ: Lawrence Erlbaum Associates, Publishers.
cuts_cat<-c("pequeño","medio","grande")
color_linea[cuts_num]<-c("black")
efecto <- d # Listado de los 20 valores de 20
efecto[cuts_num] <- cuts_cat #Reemplazar en "efecto" las posiciones cuts_num (2, 5, 8) por las categorías de cuts_cat
par(fig=c(0,.8,0,1),new=TRUE)
#Gráfica
plot(1, type="n", #no produce puntos ni líneas
frame.plot=FALSE,
xlab="Tamaño muestral", ylab="Potencia",
xlim=c(1,150), ylim=c(0,1),
main="t-Test", axes = FALSE)
#Editando los ejes, grid, etc.
abline(v=seq(0,150,by=10), col = "lightgray", lty = "dotted") # Grid vertical
abline(h=seq(0,1,by=.05), col = "lightgray", lty = "dotted") # Grid horizontal
axis(1,seq(0,150,by=10)) # Números en eje X
axis(2,seq(0,1,by=.05)) # Números en eje Y
#Plot de las lineas
#columnas <- 1:ncol(prueba) # lista de los valores 1:20
for(i in 1:length(columnas)) #length(columnas)=20
{
lines(1:150,
#prueba (data frame de 150 X 20, para graficar)
#columna <- 1:ncol(prueba) listado de valores 1:20
prueba[,columnas[i]], #filtrar "prueba" para valor de columna
col=color_linea[i], #color_linea[cuts_num]<-c("black")
lwd=grosor_linea, #grosor de cada linea
lty=tipo_linea[i] #tipo_linea[cuts_num]<-c(2:(length(cuts_num)+1))
)
}
#Leyendas
par(fig=c(.65,1,0,1),new=TRUE)
plot.new()
legend("top",legend=efecto, col=color_linea, lwd=3, lty=tipo_linea, title="Tamaño efecto",
bty="n" #Opciones: o (complete box), n (no box), 7, L, C, U
)
**Segunda gráfica
#plot using ggplot2
#library(ggplot2)
#library(reshape)
#library(plotly)
obj <- cbind(size=1:150, prueba) #Agregando el tamaño al data frame "prueba"
# Usar melt y unir con "effect" para el mapeo
#El data frame "obj" se reconstruye con respecto al parámetro id="size".
melted <- cbind(reshape::melt(obj, id="size"), effect=rep(d,each=150))
p<- ggplot(data=melted, aes(x=size, y=value, color=as.factor(effect))) +
geom_line(size=0.7,alpha=.5) +
ylab("Potencia") +
xlab("Tamaño muestral") +
ggtitle("t-Test")+
theme_bw() +
#guides(fill=guide_legend(title="Efecto"))
#scale_fill_discrete(name = "Efecto")
#labs(fill='Efecto')
#scale_fill_manual("Efecto"#,values=c("orange","red")
scale_color_discrete(name = "Tamaño del efecto")
# Interactive plot
plotly::ggplotly(p)
Example 7.2 Para cada tamaño muestral fijo, la idea ahora es modelar la relación entre el tamaño del efecto \(d\) y la potencia (manteniendo constante el nivel de significancia \(\alpha = 0.05\)). Para ello, considere los siguientes tamaños de grupo, donde \(n_1\) es el número de sujetos en el grupo 1 y \(n_2\) es el número de sujetos en el grupo 2:
\(n_1 = 28\), \(n_2 = 1406\): \(n_1\) representa el 2 % del tamaño total de la muestra de 1434.
\(n_1 = 144\), \(n_2 = 1290\): \(n_1\) representa el 10 % del tamaño total de la muestra de 1434.
\(n_1 = 287\), \(n_2 = 1147\): \(n_1\) representa el 20 % del tamaño total de la muestra de 1434.
\(n_1 = 430\), \(n_2 = 1004\): \(n_1\) representa el 30 % del tamaño total de la muestra de 1434.
\(n_1 = 574\), \(n_2 = 860\): \(n_1\) representa el 40% del tamaño total de la muestra de 1434.
\(n_1 = 717\), \(n_2 = 717\): grupos de igual tamaño (esto es óptimo porque conduce a la potencia más alta para un tamaño de efecto dado).
En la figura de abajo, se trazaron las curvas de potencia para la prueba \(t\), en función del tamaño del efecto, asumiendo una tasa de error Tipo I del 5%. La comparación de diferentes curvas de potencia (basadas en el tamaño de la muestra de cada grupo) en el mismo gráfico es una representación visual útil de este análisis. En la figura también se trazó una línea discontinua horizontal en un nivel de potencia aceptable del 80% y una línea vertical en el tamaño del efecto que tendría que estar presente en nuestros datos para alcanzar el 80 % de potencia. Se observa que el tamaño del efecto debe ser superior a 0.54 para alcanzar un nivel de potencia aceptable dados tamaños de grupo altamente desequilibrados de \(n_1 = 28\) y \(n_2 = 1406\), en comparación con todos los demás escenarios que conducen al 100% de potencia.
#library(dplyr)
#library(tidyr) #Para manipulación de datos: separate, gather, spread
#library(ggplot2)
#library(plotly) #Para curvas de potencias interactivas
#library(pwr) #Para cálculo de las potencias
#Generar cálculos de las potencias con la funcion pwr.t2n.test.
#Es un t-test para 2 muestras con tamaños diferentes
#Aquí: d es el tamaño del efecto, Power= potencia de la prueba= 1-beta):
#pwr.t2n.test(n1 = NULL, n2= NULL, d = NULL, sig.level = 0.05, power = NULL, alternative = c("two.sided", "less","greater"))
ptab <- cbind(NULL, NULL)
for (i in seq(0,1, length.out = 200)){
pwrt1 <- pwr.t2n.test(n1 = 28, n2 = 1406,
sig.level = 0.05, power = NULL,
d = i, alternative="two.sided")
pwrt2 <- pwr.t2n.test(n1 = 144, n2 = 1290,
sig.level = 0.05, power = NULL,
d = i, alternative="two.sided")
pwrt3 <- pwr.t2n.test(n1 = 287, n2 = 1147,
sig.level = 0.05, power = NULL,
d = i, alternative="two.sided")
pwrt4 <- pwr.t2n.test(n1 = 430, n2 = 1004,
sig.level = 0.05, power = NULL,
d = i, alternative="two.sided")
pwrt5 <- pwr.t2n.test(n1 = 574, n2 = 860,
sig.level = 0.05, power = NULL,
d = i, alternative="two.sided")
pwrt6 <- pwr.t2n.test(n1 = 717, n2 = 717,
sig.level = 0.05, power = NULL,
d = i, alternative="two.sided")
#Es un data frame de tamaño 200 por 12:
ptab <- rbind(ptab, cbind(pwrt1$d, pwrt1$power,
pwrt2$d, pwrt2$power,
pwrt3$d, pwrt3$power,
pwrt4$d, pwrt4$power,
pwrt5$d, pwrt5$power,
pwrt6$d, pwrt6$power))
}
#Es un data frame de tamaño 200 por 13 (la 1ra columna es ID)
ptab <- cbind(seq_len(nrow(ptab)), ptab)
colnames(ptab) <- c("id","n1=28, n2=1406;effect size","n1=28, n2=1406;power",
"n1=144, n2=1290;effect size","n1=144, n2=1290;power",
"n1=287, n2=1147;effect size","n1=287, n2=1147;power",
"n1=430, n2=1004;effect size","n1=430, n2=1004;power",
"n1=574, n2=860;effect size","n1=574, n2=860;power",
"n1=717, n2=717;effect size","n1=717, n2=717;power")
#gather se usa para "reunir" un par key-value. En este caso, en 3 columnas: ID, variables y respuestas numericas
temp1 <- ptab %>% as.data.frame() %>% gather(key = name, value = val, 2:13)
#Separar celdas en columnas, de acuerdo a una condición (sep=). En este caso, se separó "name" en dos columnas: samples y pruebas
temp2 <- temp1 %>% separate(col = name, into = c("samples", "pruebas"), sep = ";")
#La función spread hace lo opuesto a gather. Son funciones complementarias.
#Es decir, si al resultado de aplicar la función spread le aplicamos la función gather llegamos al dataset original.
temp3 <- temp2 %>% spread(key = pruebas, value = val)
#Convertir la variable "samples" a factor.
temp3$samples <- factor(temp3$samples,
levels = c("n1=28, n2=1406", "n1=144, n2=1290",
"n1=287, n2=1147", "n1=430, n2=1004",
"n1=574, n2=860", "n1=717, n2=717")
)
#Gráfica
p<- ggplot(temp3, aes(x = `effect size`, y = power, color = samples)) +
geom_line(size=1) +
theme_bw() +
theme(axis.text=element_text(size=10),
axis.title=element_text(size=10),
legend.text=element_text(size=10)) +
geom_vline(xintercept = .54, linetype = 2) +
geom_hline(yintercept = 0.80, linetype = 2)+
labs(x="Effect size", y="Power") +
scale_color_discrete(name = "Sampling size")
# so simple to make interactive plots
plotly::ggplotly(p)
En esta sección se presentará otro método para construir pruebas de hipótesis y útil para la mayoría de los problemas que aparecen en las aplicaciones. Su gran ventaja es que está basado en estimaciones de máxima verosimilitud para el parámetro de interés, para el cual se quiere comprobar o rechazar cierta hipótesis contra alguna alternativa. En la presentación se siguen los mismos pasos generales de la sección 3.0.2:
Paso 1:
Interesa una hipótesis \(H_0: \theta \in \Theta_0\) contra una alternativa \(H_1: \theta\in \Theta_1\).
Paso 2:
Se observa un dato \(x=(x_1, \ldots, x_n)^t \in \mathbb{R}^n\), suponiendo que éste es un valor de una muestra \(X=(X_1, \ldots, X_n)^t\) con función de densidad \(f_\theta\), y se calcula \(L(\theta)=f_\theta(x)= f(x,\theta)\), que es la función de verosimilitud correspondiente al dato \(x\).
Paso 3:
Como estadístico de prueba se escoge la razón de verosimilitud (en inglés: Likelihood Ratio) o, más brevemente, LR-estadística:
\[\lambda(X) \;=\; \frac{L(\widehat{\theta}_1)}{L(\widehat{\theta}_0)}= \frac{\sup\limits_{\theta \in \Theta_1} L(\theta)} {\sup\limits_{\theta \in \Theta_0} L(\theta)} \]
donde
\(\Theta_0 \cup \Theta_1\) es una unión disyunta de \(\Theta\).
\(\widehat{\theta}_0\) es la ML-estimación de \(\theta\) bajo \(H_0\) y \(\widehat{\theta}_1\) es la ML-estimación de \(\theta\) bajo \(H_1\). Es decir, el subíndice indica si la estimación corresponde a la hipótesis nula o a la alternativa.
Paso 4:
Si \(\lambda(x)\) es una observación concreta de la estadística \(\lambda(X)\), entonces se rechaza \(H_0\) con base en \(x\) si y sólo si \(\lambda(x) \geq \lambda_0 > 1\), para un \(\lambda_0 \in \mathbb{R}\). Es decir, si el máximo valor de la función de verosimilitud es para \(H_1\) *significativamente” más grande que en \(H_0\).
Paso 5:
Se determina \(\lambda_0\) como valor crítico según el criterio (compárese con la sección 4.0.1
\[P(\lambda(X)\geq \lambda_0 \,/\, H_0)\;\leq\, \alpha, \quad \mbox{para un $\alpha$ dado}\]
O, alternativamente, se puede calcular el \(P\)-valor (compárese con la sección 5, que es igual a \[\mbox{$P$-valor} \;= \; P\big(\lambda(X)\geq \lambda(x) \,/\, H_0)\]
El procedimiento de una LR-prueba, como se describió en la sección 8.0.1, se simplifica en problemas concretos según las siguientes modificaciones:
Modificación 1:
Por lo general no es fácil determinar la distribución del estadístico \(\lambda(X)\) bajo \(H_0\). Pero sí es posible encontrar un estadístico \(T(X)\) tal que \(\lambda(X)=h\big(T(X)\big)\), cuya distribución bajo \(H_0\) se encuentra tabulada. Aquí, \(h\) es una función estrictamente creciente de \(\mathbb{R}\) en \(\mathbb{R}\). Entonces rechazar \(H_0\) con base en \(x\) es equivalente a la condición \(T(x)\geq c\) y se puede determinar el valor crítico \(c\) para un nivel \(\alpha\), o bien, calcular el \(P\)-valor para \(c=T(x)\).
Modificación 2:
Muchas veces es más fácil calcular el valor \(\lambda(x)\) por medio del cociente
\[\lambda(x) \;=\; \frac{L(\widehat{\theta})}{L(\widehat{\theta}_0)}, \quad \text{para los $x$ con $\lambda(x)>1$} \]
siendo \(\widehat{\theta}\) la ML-estimación de \(\theta\), pero sin restricción alguna. Este hecho sigue de \(\widehat{\theta}_1(x) =\widehat{\theta}(x)\) para todos los \(x\) con \(\lambda(x)>1\).
Antes de dar un primer ejemplo ilustrativo, nótese que el método para construir LR-pruebas se basa en la misma idea e interpretación que el método para construir ML-estimaciones. O sea, se rechaza la hipótesis si los valores de la alternativa son significativamente más verosímiles que los valores de la hipótesis.
Example 8.1 Considere nuevamente la situación planteada en el ejemplo 3.1, en donde \(\theta = p\). La LR-prueba para \(H_0:p = 0,5\) contra \(H_1: p=0,7\) rechaza \(H_0\) con base en \(x=(x_1, \ldots, x_n)^t\) si y sólo si
\[\lambda(x) \;= \; \frac{L(0,7)}{L(0,5)} \;= \; \lambda_0\]
Como la función de verosimilitud es igual a
\[L(p) \;= \; \prod\limits_{i=1}^n p^{x_i} (1-p)^{1-x_i} \;= \; p^{\sum x_i} (1-p)^{n-\sum x_i} \;= \; \left(\frac{p}{1-p}\right)^{\sum x_i} (1-p)^n,\]
entonces el valor \(\lambda(x)\) de la LR-estadística \(\lambda(X)\) está dado por
\[\lambda(x) \;= \; \frac{\left(\frac{7}{3}\right)^{\sum x_i} (0,3)^n}{(0,5)^n} \;= \; \left(\frac{7}{3}\right)^{\sum x_i} \left(\frac{3}{5}\right)^n\]
y es una función creciente de \(T(x)=\sum\limits_{i=1}^n x_i\). \(\blacktriangleleft\)
A continuación se presentarán dos problemas para los cuales las LR-pruebas conducen a diferentes tipos de pruebas que usulamente se llaman pruebas \(t\), porque pueden ser determinadas por estadísticos que están distribuidos de acuerdo a la \(t\) de Student.
Example 8.2 (Prueba t para una muestra) Considere la siguiente situación:
1. Datos del problema:
Estamos interesados en las hipótesis \(H_0:\mu=\mu_0\) y \(H_1:\mu>\mu_0\); con \(\mu_0\) fijo, siendo el parámetro \(\mu\) la esperanza de una variable de interés, cuya varianza \(\sigma^2\) no se conoce.
Se suponen que las variables muestrales \(X_i\sim \mathcal{N}(\mu,\sigma^2)\).
2. Objetivo:
A continuación, calcularemos las ML-estimaciones de \(\theta=(\mu,\sigma^2)\) en los dos siguientes espacios, véase la sección 8.0.2:
\[\Theta_0 =\{(\mu_0,\sigma^2)^t\, /\, \sigma^2>0\}, \qquad \Theta = \{(\mu,\sigma^2)^t\, /\, \mu \geq \mu_0,\, \sigma^2>0\}\]
3. Cálculo de las estimaciones en \(\Theta_0\):
Al maximizar \(L(\mu_0,\sigma^2)\) con respecto a \(\sigma^2>0\), fijando \(\mu_0\), obtenemos las siguientes ML-estimaciones en \(\Theta_0\):
\[\widehat{\mu} = \mu_0, \qquad \widehat{\sigma}_0^2 = \frac{\sum\limits_{i=1}^n(x_i-\mu_0)^2}{n}\]
4. Cálculo de las estimaciones en \(\Theta\): Al maximizar \(L(\mu,\sigma^2)\) con respecto a \(\sigma^2>0\) y \(\mu \geq \mu_0\), obtenemos las siguientes ML-estimaciones en \(\Theta\):
\[\hat{\mu} = \left\{ \begin{array}{ll} \overline{x}_{(n)},& \mbox{si} \quad \overline{x}_{(n)}>\mu_0\\ \mu_0,& \mbox{si} \quad \overline{x}_{(n)}\leq \mu_0 \end{array}\right., \qquad \widehat{\sigma}^2 = \frac{\sum\limits_{i=1}^n(x_i-\widehat{\mu})^2}{n}\]
5. Justificación de lo calculado en 4 para \(\widehat{\mu}\):
Es claro que \(\frac{\partial\ln(L)}{\partial\mu} = \frac{n}{\sigma^2}(\overline{x}_{(n)}-\mu)\). Ahora, consideramos dos casos:
Si \(\overline{x}_{(n)}>\mu_0\), entonces \(\frac{\partial\ln(L)}{\partial\mu} = 0\) para \(\widehat{\mu}=\overline{x}_{(n)}\).
En cambio, si \(\overline{x}_{(n)}\leq \mu_0\), entonces \(\frac{\partial\ln(L)}{\partial\mu} \leq 0\) para todo \(\mu\geq\mu_0\), por lo tanto, \(L(\mu,\sigma^2)\) decrece para \(\mu\), es decir es maximal para \(\mu=\mu_0\).
6. Justificación de lo calculado en 4 para \(\widehat{\sigma}^2\):
Fijando la ML-estimación
\[\widehat{\mu} = \left\{\begin{array}{ll} \overline{x}_{(n)},& \;\overline{x}_{(n)}>\mu_0\\ \mu_0,& \;\overline{x}_{(n)}\leq \mu_0 \end{array}\right.,\]
se obtiene la estimación \(\widehat{\sigma}^2\) al resolver
\[\frac{\partial\ln(L)}{\partial(\sigma^2)} = \frac{\sum\limits_{i=1}^n (x_i-\widehat{\mu})^2}{2(\sigma^2)^2}- \frac{n}{2\sigma^2}=0\]
Entonces, en conclusión tenemos:
\[\widehat{\sigma}^2\;=\; \widehat{\sigma}_0^2\;=\; \frac{\sum\limits_{i=1}^n(x_i-\mu_0)^2}{n}\]
\[\widehat{\sigma}^2 = \frac{\sum\limits_{i=1}^n(x_i-\overline{x}_{(n)})^2}{n}\]
En la siguiente gráfica, se resumen los resultados de las estimaciones en \(\Theta\):
7. Cálculo de la LR-estadística
Una vez calculadas las ML-estimaciones de \(\theta=(\mu,\sigma^2)\), determinaremos la LR-estadística \(\lambda(X)\). Para ello, nuevamente consideraremos los dos casos posibles:
Primer caso:
Para \(\overline{x}_{(n)}\leq \mu_0\), se tiene que \(\lambda(x)=1\). Por lo tanto, no se rechaza \(H_0\).
Segundo caso:
Para \(\overline{x}_{(n)}>\mu_0\), tenemos que
\[\begin{eqnarray} \lambda(x) &=& \frac{L(\widehat{\theta})}{L(\widehat{\theta}_0)} \; =\; \frac{(2\pi\widehat{\sigma}^2)^{-n/2}\cdot \exp\left\{-\frac{1}{2\widehat{\sigma}^2} \sum\limits_{i=1}^n(x_i-\overline{x}_{(n)})^2\right\}}{(2\pi\widehat{\sigma}_0^2)^{-n/2}\cdot \exp\left\{-\frac{1} {2\widehat{\sigma}_0^2}\sum\limits_{i=1}^n(x_i-\mu_0)^2\right\}} \nonumber\\ &=& \left(\frac{\widehat{\sigma}_0^2}{\widehat{\sigma}^2}\right)^{n/2}\cdot \frac{\exp(-n/2)}{\exp(-n/2)}\;=\; \left[\frac{\sum\limits_{i=1}^n(x_i-\mu_0)^2}{\sum\limits_{i=1}^n(x_i-\overline{x}_{(n)})^2}\right]^{n/2} \nonumber\\ &=& \left[\frac{\sum\limits_{i=1}^n(x_i-\overline{x}_{(n)})^2+n(\overline{x}_{(n)}-\mu_0)^2} {\sum\limits_{i=1}^n(x_i-\overline{x}_{(n)})^2}\right]^{n/2} \nonumber\\ &=& \left[1 \, + \; \frac{n(\overline{x}_{(n)}-\mu_0)^2} {\sum\limits_{i=1}^n (x_i - \overline{x}_{(n)})^2}\right]^{n/2}\; > \; 1 \tag{8.1} \end{eqnarray}\]
O sea, para este caso, se rechaza \(H_0\). A continuación, determinaremos a partir de que valor \(\overline{x}_{(n)}\) se rechaza \(H_0\). Teniendo en cuenta (8.1) y que
\[s^2_{(n)} \;=\; \frac{1}{n-1}\sum\limits_{i=1}^n(x_i-\overline{x}_{(n)})^2\]
tenemos
\[ \lambda(x) \;=\; \left(1+\frac{1}{n-1}\left[\frac{\overline{x}_{(n)}-\mu_0} {s_{(n)}/\sqrt{n}}\right]^2\right)^{n/2}\]
Ahora, por el teorema 2.1 y bajo \(H_0:\mu=\mu_0\), se cumple que el estadístico
\[T(X) \;:= \; \frac{\overline{X}_{(n)}-\mu_0} {\sqrt{\left(\frac{1}{n-1}\sum\limits_{i=1}^n(X_i-\overline{X}_{(n)})^2\right)/ n }} \;= \; \frac{\overline{X}_{(n)}-\mu_0} {S_{(n)} / \sqrt{n}} \]
tiene distribución \(t\) de Student con \(n-1\) grados de libertad. Por tanto, para \(\overline{x}_{(n)}>\mu_0\), la LR-estadística será una función creciente del estadístico \(T(X)\):
\[\lambda(X) \;=\; \left(1+\frac{T^2(X)}{n-1}\right)^{n/2}, \mbox{donde $T\sim \mathcal{T}(n-1)$ bajo $H_0$}\]
Según la parte (1) de la sección 8.0.2, se rechaza \(H_0\) si y solo si \(T(x)\geq c>0\). Ahora bien, se determina \(c\) como valor crítico de
\[P(T(X)\geq c/H_0)=\alpha, \quad \mbox{para un nivel $\alpha$ dado}\]
o se calcula el \(P\)-valor como \[P\mbox{-valor}\;=\; P\big(T(X)>T(x)\big)\]
para la observación \(x\).\(\blacktriangleleft\)
Realizar los siguientes ejercicios:
Realizar los siguientes incisos:
Haga una prueba a nivel del \(\alpha=5\%\) para el ejemplo 3.1 con \(n=20\), para las siguientes hipótesis: \(H_0:p=0,7\) vs \(H_1:p=0,5\).
Calcule la probabilidad del error de tipo II. Interprete los valores y compare con el ejercicio 1.
¿Tiene efecto el intercambio de hipótesis nula y alternativa en el caso de que se controlen las probabilidades de los dos tipos de errores por el mismo nivel \(\alpha=\beta\)?
Realizar los siguientes incisos:
Haga una prueba a nivel del \(\alpha=5\%\) para el ejemplo 3.1 con \(n=20\), para las siguientes hipótesis: \(H_0:p=0,5\) vs \(H_1:p=0,6\).
Calcule la probabilidad del error de tipo II. Interprete esta situación y compare con el ejercicio 1.
Para la alternativa de la parte (a), haga una prueba de hipótesis controlando las probabilidades de los errores de tipo I con \(\alpha=1\%\) y de tipo II con \(\beta=5\%\) y compare con el resultado del ejemplo 3.1.
Para el ejemplo 3.1, muestre que la función de potencia \(\mathcal{P}(p)\) es creciente entre los valores \(\mathcal{P}(0)\) y \(\mathcal{P}(1)\) con:
\(\mathcal{P}(p)= \sum\limits_{k=c}^n {n\choose k} p^k (1-p)^{n-k}\), usando la distribución exacta.
\(\mathcal{P}(p) \approx 1- \Phi\left(\frac{c\,-\,np\,-\, 0,5}{\sqrt{np(1-p)}}\right)\), usando la aproximación normal.
¿Qué consecuencias tienen los resultados anteriores para el ejemplo 3.1 y los ejercicios correspondientes?
Una prueba de hipótesis está dada por:
La hipótesis \(H_0:\mu=0\) y la alternativa \(H_1: \mu>0\), siendo \(\mu\) la esperanza de una variable de interés, de la cual se conoce su varianza \(\sigma^2\).
Una muestra de tamaño \(n\) de variables muestrales \(X_i \sim \mathcal{N}(\mu, \sigma^2)\) para la variable de interés.
El estadístico de prueba \(T(X)=\overline{X}\) tal que se rechaza \(H_0\) si y sólo si \(T(x)\geq c\).
Con base en lo anterior, resuelva los siguientes incisos:
Muestre que \(\mathcal{P}(\mu) =1- \Phi\left(\frac{\sqrt{n}\,(c-\mu)}{\sigma}\right)\) es la función de potencia.
Muestre que \(\mathcal{P}\) crece entre el valor mínimo \(\mathcal{P}(0)\) y \(\lim\limits_{\mu\to\infty} \mathcal{P}(\mu)=1\).
¿Cómo se obtiene el valor crítico \(c=c(n)\) de una prueba al nivel del \(\alpha=5\%\)?
Para obtener una idea de qué efecto tienen dos somníferos 1 y 2, se hizo el siguiente experimento. Se escogieron \(K=10\) personas y se aplicaron a todas las personas los dos somníferos (con ciertos intervalos de tiempo) y se midieron para cada persona \(k\) las horas \(y_{jk}\) que dormían más con el somnífero \(j\) comparando con el tiempo que dormían sin ningún somnífero. Los datos del experimento fueron:
Suponga que se tiene interés en verificar si hay una diferencia significativa entre los dos somníferos. El parámetro de interés es, entonces, la diferencia \(\mu=\mu_1-\mu_2\) entre las horas que se duerme con somnífero 1 y con somnífero 2. Es decir, se considera como variables muestrales \(Y_k=Y_{1k}- Y_{2k}\), para \(k=1, 2, \ldots, n\).
Según el ejercicio 8, ¿cuál es el resultado de la prueba de hipótesis, si se toma como valor fijo para \(\sigma^2\) el valor 1.51.
¿Cambia algo si se cambia al nivel \(\alpha\)? ¿Cuál es el \(P\)-valor? ¿Cómo se interpreta?
Calcule la función potencia \(\mathcal{P}(\mu)\) para \(\mu=0,1\). ¿Qué significa esto para la probabilidad del error de tipo II para todos los \(\mu\geq 0,1\)?
Determine el tamaño \(n\) tal que la probabilidad de cometer el error de tipo I sea igual a \(\alpha=5\%\) y la de cometer un error de tipo II, para \(\mu\geq 0,1\), sea igual a \(\beta=5\%\). ¿Por qué basta considerar sólo los valores \(\mu\geq 0,1\) de la alternativa?
Considere la situación del ejercicio 9. Suponga que, nuevamente, se tiene interés en verificar si hay una diferencia significativa entre los dos somníferos. Tome como variables muestrales las diferencias
\[Y_k= Y_{1k}- Y_{2k} \; \sim \; \mathcal{N}(\mu, \sigma^2), \quad k=1,2 \ldots, 10\]
Haga una prueba \(t\) para una muestra para la hipótesis \(H_0:\mu=0\) contra la alternativa \(H_1:\mu>0\), siendo \(\mu=\mu_1-\mu_2\). Compare el procedimiento y el resultado de la prueba usada en los incisos (a) y (b) del ejercicio 9.
¿Por qué no es justificado aplicar una prueba \(t\) para dos muestras \(Y_{1k}\) y \(Y_{2k}\), con \(k=1,\ldots, 10\), para la hipótesis \(H_0:\mu_1=\mu_2\) (contra la hipótesis alternativa \(H_1:\mu_1>\mu_2\))?
Prueba \(t\) para dos muestras independientes. Considere ahora un problema caracterizado por dos variables. Se tiene interés en saber si los dos efectos medios, representados por las esperanzas \(\mu_1\) y \(\mu_2\) de las dos variables, son iguales o no. Una prueba para tales situaciones se obtienen según los siguientes pasos:
(a) Primer paso:
Estamos interesados en las hipótesis \(H_0:\mu_1=\mu_2\) y \(H_1:\mu_1\ne \mu_2\). Aquí se supone que \(\mu_1\) y \(\mu_2\) son desconocidas, inclusive también se desconocen las varianzas y sólo se sabe que son iguales a \(\sigma^2\) (o sea, se supone que la medición de ambas variables se puede hacer con la misma precisión). En este caso, el parámetro es
\[\theta=\left(\mu_1, \mu_2, \sigma^2\right)^t, \quad \mu_1\in \mathbb{R}, \; \mu_2\in \mathbb{R}, \; \sigma^2 >0\]
(b) Segundo paso:
Se observan dos muestras independientes, una para cada variable de interés, y se supone que las variables muestrales
\[\begin{eqnarray*} X_{1k}&\sim & \mathcal{N}(\mu_1,\sigma^2), \quad k=1, \ldots, n_1\\ X_{2j}&\sim & \mathcal{N}(\mu_2,\sigma^2), \quad j=1, \ldots, n_2 \end{eqnarray*}\]
siendo \(n=n_1+n_2\) el tamaño total.
(c) Tercer paso:
Muestre que las estimaciones de máxima verosimilitud de \(\theta\) en \[\Theta_0 =\{(\mu, \mu,\sigma^2)^t\, /\, \mu\in \mathbb{R}, \, \sigma^2>0\}\]
es:
\[\begin{eqnarray*} \widehat{\mu}_0 &=& \frac{1}{n}\left(\sum\limits_{k=1}^{n_1} x_{1k} + \sum\limits_{j=1}^{n_2} x_{2j}\right) \;= \; \frac{1}{n}\left(n_1\,\overline{x}_{1\bullet} \; + \; n_2\,\overline{x}_{2\bullet}\right), \widehat{\sigma}_0^2 &=& \frac{1}{n}\left(\sum\limits_{k=1}^{n_2}(x_{1k}-\widehat{\mu}_0)^2 + \sum\limits_{j=1}^{n_1}(x_{2j}-\widehat{\mu}_0)^2\right) \end{eqnarray*}\]
(d) Cuarto paso:
Muestre que las estimaciones de máxima verosimilitud de \(\theta\) en
\[\Theta = \{(\mu_1, \mu_2,\sigma^2)^t\, /\, \mu_1, \mu_2\in \mathbb{R}, \, \sigma^2>0\}\]
es:
\[\begin{eqnarray*} \widehat{\mu}_1 = \overline{x}_{1\bullet}, \qquad \widehat{\mu}_2 = \overline{x}_{2\bullet} \qquad \widehat{\sigma}_0^2 \;= \; \frac{1}{n}\left(\sum\limits_{k=1}^{n_1}(x_{1k}-\overline{x}_{1\bullet})^2 + \sum\limits_{j=1}^{n_2}(x_{2j}-\overline{x}_{2\bullet})^2\right) \end{eqnarray*}\]
(e) Quinto paso:
Muestre que la LR-estadística tiene valores
\[\begin{eqnarray*} \lambda(x_1, x_2) &=& \frac{L(\widehat{\theta})}{L(\widehat{\theta}_0)} \;= \; \left(1+ \frac{\frac{n_1\, n_2}{n} (\overline{x}_{2\bullet}-\overline{x}_{1\bullet})^2}{\sum\limits_{k=1}^{n_1}(x_{1k}-\overline{x}_{1\bullet})^2 + \sum\limits_{j=1}^{n_2}(x_{2j}-\overline{x}_{2\bullet})^2} \right)^{n/2} &=&\left(1+\frac{T^2(x_1, x_2)}{n-2}\right)^{n/2} \end{eqnarray*}\]
donde
\[T(X) \;:= \; T(X_1,X_2) \;= \; \frac{\overline{X}_{2\bullet} - \overline{X}_{1\bullet}}{\sqrt{\frac{S^2}{n_1} + \frac{S^2}{n_2}}} \]
siendo \[S^2 \;= \; \frac{1}{n-2}\left(\sum\limits_{k=1}^{n_1}(X_{1k}-\overline{X}_{1\bullet})^2 + \sum\limits_{j=1}^{n_2}(X_{2j}-\overline{X}_{2\bullet})^2\right)\]
la llamada varianza muestral combinada.
(f) Sexto paso:
Muestre que \(\lambda\) es una función estrictamente creciente de \(|T(x)|\).
(g) Séptimo paso:
Muestre que, bajo \(H_0:\mu_1=\mu_2\), el estadístico \(T(X)\) tiene distribución \(t\) de Student con \(n-2\) grados de libertad. Por lo tanto, según la parte (1) de la sección 8.0.2, se rechaza \(H_0\) si y solo si \(|T(x_1,x_2)|\geq c>0\). Ahora bien, se determina \(c\) como valor crítico de
\[P(|T(x_1,x_2)|\geq c\,/\,H_0)\;=\; 2\,P(T(x_1,x_2)\geq c)\;= \; \alpha, \]
para un nivel \(\alpha\) dado o se calcula el \(P\)-valor como
\[P\mbox{-valor}\;=\; P\big(|T(X_1,X_2)|\,>\,|T(x_1,x_2)|\big) \;= \; 2\,P\big(T(X_1,X_2)\,>\,|T(x_1,x_2)|\big)\]
para la observación
\[(x^t_1,x^t_2) = (x_{11}, \ldots, x_{1n_1}, x_{21}, \ldots, x_{2n_2})^t\]
Obsérvese que aquí se ha utilizado la simetría de la distribución \(t\) de Student alrededor del origen. \(\blacktriangleleft\)
Considere el problema que se refiere al hecho de conocer si cierto tratamiento a una tierra aumenta o no la producción. Suponga que se trataron 5 tierras con 500 libras de cierto material orgánico en la época de lluvia anterior a la cosecha y se midió después la producción \(y_{2k}\). En tierras de control, no tratadas con el material orgánico, se midió la producción \(y_{1k}\). Resultaron los siguientes datos:
Haga una prueba \(t\) para dos muestras para determinar si el tratamiento mejora la producción. ¿Cuál pareja \((H_0,H_1)\) del ejercicio 11 es la más adecuada?
Una prueba \(t\) de correlación. Al igual que en el ejercicio 11, considere un problema caracterizado por dos variables. Pero, a diferencia de ese ejemplo en donde la prueba \(t\) se basa en observar independendientemente una muestra para cada variable (de tamaños iguales o desiguales como en el ejercicio 12), ahora se trata de problemas en los cuales se presume independencia entre las dos variables. Para verificar esto, se puede hacer la siguiente prueba \(t\) de independencia:
(a) Primer paso:
Se hace la hipótesis \(H_0:\rho=0\) vs \(H_1:\rho\ne 0\), siendo \(\rho\) el supuesto coeficiente de correlación entre las dos variables de interés. Sobre las esperanzas \(\mu_1\) y \(\mu_2\) y las varianzas \(\sigma_1^2\) y \(\sigma_2^2\) no se supone nada. O sea, el parámetro es: \[\theta=(\mu_1,\mu_2, \sigma_1^2, \sigma_2^2)^t,\quad \mu_1, \mu_2 \in \mathbb{R}, \quad \sigma_1^2, \sigma_2^2 >0, \quad \rho\in (-1,1)\]
(b) Segundo paso:
Se observa una muestra aleatoria bidimensional \((Y_{1i}, Y_{2i})^t\) con \(i=1,2, \ldots, n\), bi-normales de la forma \((Y_{1n}, Y_{2n})^t \; \sim \;\mathcal{ N}(\mu, \Sigma)\), siendo \(\mu=(\mu_1, \mu_2)^t\) y \[\Sigma \;= \; \left( \begin{array}{ll} \sigma_1^2 & \sigma_1\sigma_2\rho \\ \sigma_1\sigma_2\rho & \sigma_2^2 \end{array} \right)\]
y donde los \(n\) vectores son independientes entre sí.
(c) Tercer paso:
Muestre que la LR-estadística es \[\lambda \;= \; \lambda(Y_1, Y_2) \;= \; \frac{1}{\sqrt{(1-\widehat{\rho})^n}}\]
siendo
\[Y_1=(Y_{11}, \ldots, Y_{1n})^t, \qquad Y_2=(Y_{21},\ldots, Y_{2n})^t\]
y
\[\widehat{\rho}\;= \; \frac{\sum\limits_{i=1}^n (Y_{1i}-\overline{Y}_{1\bullet})(Y_{2i}-\overline{Y}_{2\bullet})}{\sqrt{\left[\sum\limits_{i=1}^n (Y_{1i}-\overline{Y}_{1\bullet})^2\right] \left[ \sum\limits_{i=1}^n (Y_{2i}-\overline{Y}_{2\bullet})^2\right]}}\]
(d) Cuarto paso:
Muestre que para el \(t\)-estadístico
\[T\; :=\; T(Y_1,Y_2) \;= \; \frac{\widehat{\rho}\, \sqrt{n-2}}{\sqrt{1- \widehat{\rho}^2}}\]
es válido que \(|T|\) es una función estrictamente creciente de \(\lambda\). Es decir, la LR-prueba rechaza \(H_0\) con base en \((y_1^t, y_2^t)\) si y sólo si \(|T(y_1,y_2)|\geq c>0\), siendo \(c\) un valor crítico según el criterio del error de tipo I o el del \(P\)-valor. Use el resultado (sin demostración): Bajo \(H_0:\rho=0\) se cumple que \(T\sim \mathcal{T}(n-2)\).
Una prueba \(F\) para la igualdad de varianzas. Al igual que en el ejercicio 11, considere un problema caracterizado por dos variables, independientes entre sí. La prueba \(t\) de ese ejemplo se basa en suponer que las varianzas de las dos variables son iguales. Para verificar esto se puede hacer la siguiente prueba \(F\):
Se hace la hipótesis \(H_0:\sigma_1^2=\sigma_2^2\) vs \(H_1:\sigma_1^2>\sigma_2^2\), por ejemplo, tomando como parámetro
\[\theta=(\mu_1,\mu_2, \sigma_1^2, \sigma_2^2)^t,\quad \mu_1, \mu_2 \in \mathbb{R}, \quad \sigma_1^2, \sigma_2^2 >0\]
Se observan dos muestras aleatorias independientemente, una para cada variable. Suponga que \(n=n_1+n_2\) es el tamaño total y que
\[\begin{eqnarray*} Y_{1k} &\sim & N(\mu_1, \sigma_1^2), \quad k=1,2, \ldots, n_1\\ Y_{2j} &\sim & N(\mu_2, \sigma_2^2), \quad j=1,2, \ldots, n_2 \end{eqnarray*}\]
Muestre que la LR-estadística es
\[\lambda \;= \; \lambda(Y_1, Y_2) \;= \; \frac{\sqrt{(n_1F \, + \; n_2)^n}}{\sqrt{n^n \, F^{n_1}}}, \qquad \mbox{siendo}\]
\[F\;= \; F(Y_1,Y_2)\;= \; \frac{\sum\limits_{k=1}^{n_1} (Y_{1k}-\overline{Y}_{1\bullet})^2 / n_1}{\sum\limits_{j=1}^{n_2} (Y_{2j}-\overline{Y}_{2\bullet})^2 / n_2} \;= \; \frac{\widehat{\sigma}_1^2}{\widehat{\sigma}_2^2}\]
Sugerencia para el inciso (c):
Muestre los siguientes pasos:
\(\widehat{\mu}_1=\overline{Y}_{1\bullet}\) y \(\widehat{\mu}_2=\overline{Y}_{2\bullet}\) son las ML-estimaciones de \(\mu_1\) y \(\mu_2\), respectivamente, sin importar si se hace o no la hipótesis \(H_0\).
\(\widehat{\sigma}_1^2\) y \(\widehat{\sigma}_2^2\) son las ML-estimaciones de \(\sigma_1^2\) y \(\sigma_2^2\), respectivamente, sin hacer la hipótesis \(H_0\).
Si \(\sigma^2:=\sigma_1^2=\sigma_2^2\), entonces la ML-estimación de \(\sigma^2\) bajo la hipótesis \(H_0\) viene dada por:
\[\widehat{\sigma}^2 \;= \; \left(\sum\limits_{k=1}^{n_1} (Y_{1k}-\overline{Y}_{1\bullet})^2 \; + \; \sum\limits_{j=1}^{n_2} (Y_{2j}-\overline{Y}_{2\bullet})^2\right)/n\]
Una fábrica de queso verifica continuamente el nivel de contenido graso de su leche. El porcentaje de grasa no debe desviarse mucho del 2% (una desviación estándar del 10% es aceptable). Se obtuvo una muestra de 20 empaques de queso y se registró el porcentaje de grasa en cada uno. Los resultados fueron:
\[\begin{eqnarray*} && 1,85 \quad 2,25 \quad 2,01 \quad 1,90 \quad 1,97 \quad 1,80 \quad 2,05 \quad 2,23 \quad 1,65 \quad 1,86 \\ && 2,02 \quad 2,09 \quad 2,04 \quad 2,07 \quad 2,14 \quad 1,93 \quad 2,08 \quad 2,17 \quad 1,91 \quad 1,93 \end{eqnarray*}\]
Construya un intervalo del 95% de confianza para la varianza de porcentajes de grasa respecto al 2%.
Haga una prueba al nivel del 5% para determinar si la varianza en los porcentajes de grasa excede el 1%.
Cuando un proceso de producción de bolas de rodamiento funciona correctamente, el peso de las bolas tiene una distribución normal con media 5 gramos y desviación típica 0,1 gramos. Al llevarse a cabo una modificación del proceso, el director de la fábrica sospecha que esto ha incrementado el peso medio de las bolas producidas, sin modificar la desviación típica. Se toma, entonces, una muestra aleatoria de 16 bolas.
¿Qué condición deben cumplir los valores del peso medio muestral \(\overline{X}\) para que \(H_0:\mu= 5\) no se rechace en favor de la alternativa \(H_1: \mu>5\) usando un nivel de significancia de 0,05?
Determine la probabilidad de que \(H_0\) no sea rechazada si el verdadero peso medio es 5,05 gramos.
Halle la potencia del contraste cuando el verdadero peso medio es 5,05 gramos.
Consultar el documento RPubs :: Teoría de Probabilidad y Estadística Matemática (bibliografía).
If you found any ERRORS or have SUGGESTIONS, please report them to my email. Thanks.