Definición: Un estimador es una regla, a menudo expresada como una fórmula, que indica cómo calcular el valor de una estimación con base en las mediciones contenidas en una muestra.

Por ejemplo, la media muestral

\[\bar{Y}= \frac{1}{n}\sum_{i=1}^{n}y_i\]

Si \(\hat{\theta}\) es un estimador puntual de un parámetro \(\theta\), entonces - \(\hat{\theta}\) es un estimador insesgado si \(E(\hat{\theta})=\theta\).

Definición: El sesgo de un estimador puntual \(E(\hat{\theta})\) está dado por \(B(\hat{\theta}) = E(\hat{\theta}) −\mu\).

Definición: El error cuadrático medio de un estimador puntual \(\hat{\theta}\) es \[ \operatorname{MSE}(\hat{\theta})=E\left[(\hat{\theta}-\theta)^{2}\right] \]

El error cuadrático medio de un estimador \(\hat{\theta}\), \(MSE (\hat{\theta})\), es una función de su varianza y su sesgo. Si \(B(\hat{\theta})\) representa el sesgo del estimador \(\hat{\theta}\), se puede demostrar que \[\operatorname{MSE}(\hat{\theta})=V(\hat{\theta})+[B(\hat{\theta})]^{2}\]

Ejercicios:

    • Si \(\hat{\theta}\) es un estimador insesgado para \(\theta\) cuál es \(B(\hat{\theta})\) ?
  1. Suponga que \(\hat{\theta}\) es un estimador para un parámetro \(\theta\) y \(E(\hat{\theta})=a \theta+b\) para algunas constantes diferentes de cero \(a\) y \(b\).
  1. Suponga que \(E\left(\hat{\theta}_{1}\right)=E\left(\hat{\theta}_{2}\right)=\theta, V\left(\hat{\theta}_{1}\right)=\sigma_{1}^{2}, \mathrm{y} V\left(\hat{\theta}_{2}\right)=\sigma_{2}^{2} .\) Considere el estimador \(\hat{\theta}_{3}=a \hat{\theta}_{1}+\) \((1-a) \hat{\theta}_{2}\).
  1. Suponga que \(Y_{1}, Y_{2}, Y_{3}\) denotan una muestra aleatoria de una distribución exponencial con función de densidad \[ f(y)= \begin{cases}\left(\frac{1}{\theta}\right) e^{-y / \theta}, & y>0 \\ 0, & \text { en cualquier otro punto. }\end{cases} \] Considere los siguientes cinco estimadores de \(\theta\) : \[ \hat{\theta}_{1}=Y_{1}, \quad \hat{\theta}_{2}=\frac{Y_{1}+Y_{2}}{2}, \quad \hat{\theta}_{3}=\frac{Y_{1}+2 Y_{2}}{3}, \quad \hat{\theta}_{4}=\min \left(Y_{1}, Y_{2}, Y_{3}\right), \quad \hat{\theta}_{5}=\bar{Y} \]

Algunos estimadores puntuales insesgados comunes

\[ \begin{array}{lcccc} \hline \begin{array}{c} \text { Parámetro } \\ \text { objetivo } \\ \theta \end{array} & \begin{array}{c} \text { Tamaño(s) } \\ \text { muestral(es) } \end{array} & \begin{array}{c} \text { Estimador } \\ \text { puntual } \end{array} & \hat{\theta} & E(\hat{\theta}) & \begin{array}{c} \text { Error } \\ \text { estándar } \end{array} \\ \hline \mu & n & \bar{Y} & \mu & \frac{\sigma_{\theta}}{\sqrt{n}} \\ \hline p & n & \hat{p}=\frac{Y}{n} & p & \sqrt{\frac{p q}{n}} \\ \hline \mu_{1}-\mu_{2} & n_{1} \text { y } n_{2} & \bar{Y}_{1}-\bar{Y}_{2} & \mu_{1}-\mu_{2} & \sqrt{\frac{\sigma_{1}^{2}}{n_{1}}+\frac{\sigma_{2}^{2}}{n_{2}}} \\ \hline p_{1}-p_{2} & n_{1} \text { y } n_{2} & \hat{p}_{1}-\hat{p}_{2} & p_{1}-p_{2} & \sqrt{\frac{p_{1} q_{1}}{n_{1}}+\frac{p_{2} q_{2}}{n_{2}}} \\ \hline \end{array} \]

Ejercicio

Una comparación de la durabilidad de dos tipos de llantas para automóvil se obtuvo de muestras de pruebas en carretera de \(n_1 = n_2 = 100\) llantas de cada tipo. Se registró el número de millas hasta quedar inútiles, el desgaste se definió como el número de millas hasta que la cantidad restante de superficie de rodamiento llegó a un valor pequeño especificado previamente.

Las mediciones para los dos tipos de llantas se obtuvieron de manera independiente y se calcularon las siguientes medias y varianzas: \(\bar{y}_1 = 26,400\) millas, \(\bar{y}_2 = 25,100\) millas, \(s^2_1 = 1,440,000\), \(s^2_2 = 1,960,000\). Estime la diferencia en la media de millas hasta quedar inútiles y precise un límite de error estándar de 2 en el error de estimación.

Propiedades de los estimadores puntuales y métodos de estimación

Definición:

Dados dos estimadores insesgados \(\hat{\theta}_{1}\) y \(\hat{\theta}_{2}\) de un parámetro \(\theta, \operatorname{con}\) varianzas \(V\left(\hat{\theta}_{1}\right)\) y \(V\left(\hat{\theta}_{2}\right)\), respectivamente, entonces la eficiencia de \(\hat{\theta}_{1}\) con respecto a \(\hat{\theta}_{2}\), denotada eff \(\left(\hat{\theta}_{1}, \hat{\theta}_{2}\right)\), se define como la razón \[ \operatorname{eff}\left(\hat{\theta}_{1}, \hat{\theta}_{2}\right)=\frac{V\left(\hat{\theta}_{2}\right)}{V\left(\hat{\theta}_{1}\right)} \]

Ejemplo

Sea \(Y_{1}, Y_{2}, \ldots, Y_{n}\) una muestra aleatoria de una distribución uniforme en el intervalo \((0, \theta)\). Dos estimadores insesgados para \(\theta\) son \[ \hat{\theta}_{1}=2 \bar{Y} \text { y } \hat{\theta}_{2}=\left(\frac{n+1}{n}\right) Y_{(n)}, \] cuando \(Y_{(n)}=\operatorname{máx}\left(Y_{1}, Y_{2}, \ldots, Y_{n}\right) .\) Encuentre la eficiencia de \(\hat{\theta}_{1}\) con respelcto a \(\hat{\theta}_{2}\).

Teorema:

Un estimador insesgado \(\hat{\theta}_{n}\) para \(\theta\) es un estimador consistente de \(\theta\) si \[ \lim _{n \rightarrow \infty} V\left(\hat{\theta}_{n}\right)=0 . \]

EJEMPLO

Sea \(Y_{1}, Y_{2}, \ldots, Y_{n}\) que representan una muestra aleatoria de una distribución con media \(\mu\) y varianza \(\sigma^{2}<\infty\). Demuestre que \(\bar{Y}_{n}=\frac{1}{n} \sum_{i=1}^{n} Y_{i}\) es un estimador consistente de \(\mu\). (Nota: usamos la notación \(\bar{Y}_{n}\) para indicar explícitamente que \(\bar{Y}\) se calcula usando una muestra de tamaño \(n\).)

Método de momentos

Es uno de los métodos más antiguos para obtener estimadores puntuales: el método de momentos. Un método más refinado, el de verosimilitud máxima.

El método de momentos es un procedimiento muy sencillo para hallar un estimador para uno o más parámetros poblacionales. Recuerde que el \(k\)-ésimo momento de una variable aleatoria, tomado alrededor del origen, es \[ \mu_{k}^{\prime}=E\left(Y^{k}\right) \] El correspondiente \(k\)-ésimo momento muestral es el promedio \[ m_{k}^{\prime}=\frac{1}{n} \sum_{i=1}^{n} Y_{i}^{k} \] El método de momentos está basado en la idea de que los momentos muestrales deben dar buenas estimaciones de los momentos poblacionales correspondientes.

Es decir, \(m_{k}^{\prime}\) debe ser un buen estimador de \(\mu_{k}^{\prime}\), para \(k=1,2, \ldots\) Entonces, debido a que los momentos poblacionales \(\mu_{1}^{\prime}, \mu_{2}^{\prime}, \ldots, \mu_{k}^{\prime}\) son funciones de los parámetros poblacionales, podemos igualar los correspondientes momentos poblacionales y muestrales y despejar los estimadores deseados. En consecuencia, el método de momentos se puede expresar como sigue.

Método de momentos

Escoja como estimaciones los valores de los parámetros que son soluciones de las ecuaciones \(\mu_{k}^{\prime}=m_{k}^{\prime}\), para \(k=1,2, \ldots, t\), donde \(t\) es el número de parámetros por estimar.

Ejemplo

Una muestra aleatoria de \(n\) observaciones, \(Y_{1}, Y_{2}, \ldots, Y_{n}\) se selecciona de una población en la que \(Y_{i}\), para \(i=1,2, \ldots, n\), posee una función de densidad de probabilidad uniforme en el intervalo \((0, \theta)\) donde \(\theta\) es desconocida. Use el método de momentos para estimar el parámetro \(\theta\).

El método de momentos es un procedimiento para obtener un estimador puntual de una variable aleatoria. Tenemos una variable aleatoria \(X\). Tenemos dos casos: que la variable siga una distribución puntual \(\left(p_{x}(x)\right)\) o que siga una distribución continua \(\left(f_{x}(x)\right)\). Definimos los momentos de orden k como: \[ \mu_{k}'=E\left[X^{k}\right]=\left\{\begin{array}{cl} \int_{-\infty}^{+\infty} x^{k} \cdot f(x) & \text { si } \mathrm{X} \text { es continua } \\ \sum_{x}^{k} x^{k} \cdot p(x) & \text { si } \mathrm{X} \text { es discreta } \end{array}\right. \] \(Y\) definimos los momentos muestrales de orden \(\mathbf{k}\) como: \[ m_{k}'=\frac{1}{n} \cdot \sum_{i=1}^{n} X_{i}^{k} \] El método de los momentos consiste en igualar los momentos poblacionales con los momentos muestrales, para hacer un sistema de \(k\) ecuaciones con \(k\) incógnitas, siendo \(k\) el número de parámetros que se quiere estimar.

Ejemplo 1

Sea \(X\) una variable aleatoria con función de densidad de probabilidad \(f(x)=\left\{\begin{array}{cc}\left(\frac{2}{\theta^{2}}\right)(\theta-x) & ; 0 \leq x \leq \theta \\ 0 & ; \text { cualquier otro caso }\end{array}\right.\)

Ejemplo 2

Una muestra aleatoria de \(n\) observaciones, \(Y_{1}, Y_{2}, \ldots, Y_{n}\) se selecciona de una población en la que \(Y_{i}\), para \(i=1,2, \ldots, n\), posee una función de densidad de probabilidad uniforme en el intervalo \((0, \theta)\) donde \(\theta\) es desconocida. Use el método de momentos para estimar el parámetro \(\theta\).