ESTIMADOR

Un estimador es una regla o fórmula matemática que se utiliza para estimar un parámetro desconocido de una población basándose en una muestra de datos de esa población. Hay varias propiedades deseables que un buen estimador debe tener, algunas de las cuales son:

Insesgadez (insesgamiento): Un estimador se considera insesgado si, en promedio, su valor esperado es igual al valor real del parámetro que está estimando.

Eficiencia: Un estimador eficiente es aquel que tiene una varianza mínima entre los estimadores no sesgados. En otras palabras, proporciona estimaciones precisas del parámetro.

Consistencia: A medida que el tamaño de la muestra aumenta, un estimador consistente se acerca cada vez más al valor verdadero del parámetro.

Ejemplo de Estimador Insesgado:

Supongamos que queremos estimar la media poblacional (μ) y tenemos una muestra de datos. Un estimador insesgado de la media poblacional es simplemente el promedio de la muestra.

# Estimador insesgado de la media poblacional
muestras <- c(10, 15, 12, 18, 20)
estimador_ins <- mean(muestras)
print(estimador_ins)
## [1] 15

Ejemplo de Estimador Eficiente: Supongamos que queremos estimar la varianza poblacional (σ^2). Un estimador eficiente de la varianza poblacional es la varianza muestral corregida.

# Estimador eficiente de la varianza poblacional
muestras <- c(10, 15, 12, 18, 20)
estimador_eff <- var(muestras) * ((length(muestras) - 1) / length(muestras))
print(estimador_eff)
## [1] 13.6

Ejemplo de Estimador Consistente: Supongamos que queremos estimar la proporción de una característica en una población (p). Un estimador consistente de la proporción es simplemente la proporción muestral.

# Estimador consistente de la proporción
muestras <- c(1, 0, 1, 1, 1, 0, 0, 1, 1, 1)
estimador_cons <- sum(muestras) / length(muestras)
print(estimador_cons)
## [1] 0.7

Estimación puntual

La estimación puntual implica proporcionar un único valor como estimación del parámetro poblacional. Este valor se obtiene a partir de los datos de una muestra y se utiliza como una aproximación del valor real del parámetro en la población.

Ejemplo: Supongamos que tenemos una muestra de alturas y queremos estimar la altura media de la población. La media muestral sería un estimador puntual de la altura media poblacional.

# Alturas de una muestra
alturas_muestra <- c(170, 172, 175, 168, 180, 178, 172, 176, 174, 170)

# Estimador puntual de la media
media_estimada <- mean(alturas_muestra)

# Imprimir el resultado
cat("Estimador Puntual de la Media:", media_estimada, "\n")
## Estimador Puntual de la Media: 173.5

Estimación por Intervalos de Confianza: La estimación por intervalos de confianza proporciona un rango o intervalo dentro del cual se espera que esté el verdadero valor del parámetro con cierto nivel de confianza. Este enfoque tiene en cuenta la variabilidad en las estimaciones y proporciona una medida de la precisión de la estimación.

Ejemplo:

Utilizando el mismo ejemplo de alturas, vamos a calcular un intervalo de confianza del 95% para la media poblacional

# Intervalo de confianza del 95% para la media
intervalo_confianza <- t.test(alturas_muestra)$conf.int

# Imprimir el resultado
cat("Intervalo de Confianza del 95% para la Media:", intervalo_confianza, "\n")
## Intervalo de Confianza del 95% para la Media: 170.776 176.224

Los estimadores de Máxima Verosimilitud (MLE por sus siglas en inglés)

son una técnica ampliamente utilizada en estadísticas para estimar los parámetros de un modelo estadístico. La idea básica detrás del MLE es encontrar los valores de los parámetros que maximizan la verosimilitud de observar los datos dados los parámetros.

Proceso para encontrar el Estimador de Máxima Verosimilitud:

Definir el modelo estadístico: Esto implica especificar la distribución de probabilidad subyacente que se asume para los datos.

Escribir la función de verosimilitud: La función de verosimilitud representa la probabilidad de observar los datos dados los parámetros del modelo. Se denota comúnmente como L(θ∣datos), donde θ son los parámetros del modelo.

Tomar el logaritmo de la función de verosimilitud (opcional): A menudo, se toma el logaritmo de la función de verosimilitud para simplificar el cálculo y manipulación matemática.

Derivar la función (log) de verosimilitud con respecto a los parámetros: Igualar la derivada a cero para encontrar los valores de los parámetros que maximizan la función.

Resolver para los parámetros: Estos valores son los estimadores de máxima verosimilitud.

Ejemplo: Supongamos que tenemos una muestra de datos que sigue una distribución normal y queremos encontrar el estimador de máxima verosimilitud para la media (μ) y la desviación estándar (σ).

# Generar una muestra de datos
set.seed(123)
datos <- rnorm(100, mean = 3, sd = 2)

# Función de verosimilitud para una distribución normal
log_likelihood <- function(par, data) {
  mu <- par[1]
  sigma <- par[2]
  -sum(dnorm(data, mean = mu, sd = sigma, log = TRUE))
}

# Encontrar estimadores de máxima verosimilitud
inicializacion <- c(mean(datos), sd(datos))
estimadores_mle <- optim(par = inicializacion, fn = log_likelihood, data = datos)

# Resultados
cat("Estimador MLE para la media:", estimadores_mle$par[1], "\n")
## Estimador MLE para la media: 3.180785
cat("Estimador MLE para la desviación estándar:", estimadores_mle$par[2], "\n")
## Estimador MLE para la desviación estándar: 1.816337