La simulación ayuda a entender y validad las propiedades de los estimadores estadísticos como son, insesgadez, eficiencia y la consistencia principalmente. El siguiente problema permite evidenciar las principales características de un grupo de estimadores propuestos para la estimación de un parámetro asociado a un modelo de probabilidad.
Sean \(X_1, X_2, X_3 \text{ y } X_4\), una muestra aleatoria de tamaño \(n = 4\) cuya población la conforma una distribución exponencial con parámetro \(\theta\) desconocido. Determine las características de cada uno de los siguientes estimadores propuestos:
• \(\hat{\theta}_1 = \frac{X_1 + X_2}{6} + \frac{X_3 + X_4}{3}\)
• \(\hat{\theta}_2 = \frac{X_1 + 2X_2 + 3X_3 + 4X_4}{5}\)
• \(\hat{\theta}_3 = \frac{X_1 + X_2 + X_3 + X_4}{4}\)
• \(\hat{\theta}_4 = \frac{\min\{X_1, X_2, X_3, X_4\} + \max\{X_1, X_2, X_3, X_4\}}{2}\)
Nota:
Genere una muestras de n = 20, 50, 100 y 1000 para cada uno de los estimadores planteados.
En cada caso evalue las propiedades de insesgadez, eficiencia y consistencia.
Suponga un valor para el parámetro \(\theta\).
Al final de la sección se encuentran las conclusiones según los resultados obtenidos en cada ítem.
Cálculos:
set.seed(123)
# Tamaño de muestras:
n_values <- c(20, 50, 100, 1000)
# Valor supuesto:
theta <- 1
# Función para calcular los estimadores:
estimadores <- function(x) {
n <- length(x)
theta_1 <- (x[1] + x[2])/6 + (x[3] + x[4])/3
theta_2 <- (x[1] + 2*x[2] + 3*x[3] + 4*x[4])/5
theta_3 <- mean(x)
theta_4 <- (min(x) + max(x))/2
return(c(theta_1, theta_2, theta_3, theta_4))
}
# Lista de almacenamiento de resultados:
resultados <- list()
# Muestras para cada valor de n y cálculo de los estimadores:
for (n in n_values) {
# 1000 muestras de tamaño 4:
muestras <- replicate(1000, rexp(4, rate = 1/theta))
estimadores_muestra <- apply(muestras, 2, estimadores)
resultados[[paste0("n_", n)]] <- estimadores_muestra
}
• Insesgadez:
for (n in n_values) {
cat(sprintf("n = %d | Media θ1: %.4f | Media θ2: %.4f | Media θ3: %.4f | Media θ4: %.4f\n",
n,
round(mean(resultados[[paste0("n_", n)]][1, ]), 4),
round(mean(resultados[[paste0("n_", n)]][2, ]), 4),
round(mean(resultados[[paste0("n_", n)]][3, ]), 4),
round(mean(resultados[[paste0("n_", n)]][4, ]), 4)))
}
## n = 20 | Media θ1: 0.9978 | Media θ2: 1.9987 | Media θ3: 1.0000 | Media θ4: 1.1695
## n = 50 | Media θ1: 1.0074 | Media θ2: 2.0197 | Media θ3: 1.0024 | Media θ4: 1.1736
## n = 100 | Media θ1: 1.0151 | Media θ2: 2.0342 | Media θ3: 1.0161 | Media θ4: 1.1818
## n = 1000 | Media θ1: 0.9963 | Media θ2: 1.9981 | Media θ3: 0.9989 | Media θ4: 1.1647
• Eficiencia:
for (n in n_values) {
cat(sprintf("n = %d | Varianza θ1: %.4f | Varianza θ2: %.4f | Varianza θ3: %.4f | Varianza θ4: %.4f\n",
n,
round(var(resultados[[paste0("n_", n)]][1, ]), 4),
round(var(resultados[[paste0("n_", n)]][2, ]), 4),
round(var(resultados[[paste0("n_", n)]][3, ]), 4),
round(var(resultados[[paste0("n_", n)]][4, ]), 4)))
}
## n = 20 | Varianza θ1: 0.2774 | Varianza θ2: 1.1946 | Varianza θ3: 0.2433 | Varianza θ4: 0.4046
## n = 50 | Varianza θ1: 0.2773 | Varianza θ2: 1.1989 | Varianza θ3: 0.2338 | Varianza θ4: 0.3938
## n = 100 | Varianza θ1: 0.2574 | Varianza θ2: 1.1235 | Varianza θ3: 0.2503 | Varianza θ4: 0.4049
## n = 1000 | Varianza θ1: 0.2914 | Varianza θ2: 1.2964 | Varianza θ3: 0.2531 | Varianza θ4: 0.4159
Graficando los valores estimados para cada estimador:
• Consistencia:
Conclusiones:
• Los estimadores insesgados son θ1 y θ3, dado que tienen media similar al θ supuesto, en este caso, 1.
• El estimador más eficiente es aquel que presenta la menor varianza. En este caso, el estimador θ3 es el más eficiente con una varianza de 0.25, seguido de θ1, cuya varianza es de 0.29 .
• Los estimadores son considerados consistentes cuando, a medida que el tamaño de la muestra aumenta, sus medias convergen al valor verdadero del parámetro (θ = 1) y sus varianzas tienden a cero. Sin embargo, en este caso, se observa que los estimadores no presentan consistencia, ya que, aunque las medias de θ1 y θ3 pueden acercarse a 1, las varianzas no siguen una tendencia clara de disminución. En lugar de reducirse, tienen un comportamiento fluctuante, lo que indica que no convergen hacia cero, como se esperaría de estimadores consistentes.