Definición: Un estimador es una regla, a menudo expresada como una fórmula, que indica cómo calcular el valor de una estimación con base en las mediciones contenidas en una muestra.
Por ejemplo, la media muestral
\[\bar{Y}= \frac{1}{n}\sum_{i=1}^{n}y_i\]
Si \(\hat{\theta}\) es un estimador puntual de un parámetro \(\theta\), entonces - \(\hat{\theta}\) es un estimador insesgado si \(E(\hat{\theta})=\theta\).
- Si \(E(\hat{\theta}) \neq theta\), se dice que \(\hat{\theta}\) está sesgado.
Definición: El sesgo de un estimador puntual \(E(\hat{\theta})\) está dado por \(B(\hat{\theta}) = E(\hat{\theta}) −\mu\).
Definición: El error cuadrático medio de un estimador puntual \(\hat{\theta}\) es \[ \operatorname{MSE}(\hat{\theta})=E\left[(\hat{\theta}-\theta)^{2}\right] \]
El error cuadrático medio de un estimador \(\hat{\theta}\), \(MSE (\hat{\theta})\), es una función de su varianza y su sesgo. Si \(B(\hat{\theta})\) representa el sesgo del estimador \(\hat{\theta}\), se puede demostrar que \[\operatorname{MSE}(\hat{\theta})=V(\hat{\theta})+[B(\hat{\theta})]^{2}\]
Ejercicios:
- Si \(\hat{\theta}\) es un estimador insesgado para \(\theta\) cuál es \(B(\hat{\theta})\) ?
- \(\operatorname{Si} B(\hat{\theta})=5\), ¿cuál es \(E(\hat{\theta})\) ?
- Suponga que \(\hat{\theta}\) es un estimador para un parámetro \(\theta\) y \(E(\hat{\theta})=a \theta+b\) para algunas constantes diferentes de cero \(a\) y \(b\).
- En términos de \(a, b\), y \(\theta\), . cuál es \(B(\hat{\theta})\) ?
- Encuentre una función de \(\hat{\theta}\), por ejemplo \(\hat{\theta}\), \({ }^{*}\) que es un estimador insesgado para \(\theta\).
- Suponga que \(E\left(\hat{\theta}_{1}\right)=E\left(\hat{\theta}_{2}\right)=\theta, V\left(\hat{\theta}_{1}\right)=\sigma_{1}^{2}, \mathrm{y} V\left(\hat{\theta}_{2}\right)=\sigma_{2}^{2} .\) Considere el estimador \(\hat{\theta}_{3}=a \hat{\theta}_{1}+\) \((1-a) \hat{\theta}_{2}\).
- Demuestre que \(\hat{\theta}_{3}\) es un estimador insesgado para \(\theta\).
- Si \(\hat{\theta}_{1}\) y \(\hat{\theta}_{2}\) son independientes, ¿cómo debe escogerse la constante \(a\) para minimizar la varianza de \(\hat{\theta}_{3}\) ?
- Suponga que \(Y_{1}, Y_{2}, Y_{3}\) denotan una muestra aleatoria de una distribución exponencial con función de densidad \[ f(y)= \begin{cases}\left(\frac{1}{\theta}\right) e^{-y / \theta}, & y>0 \\ 0, & \text { en cualquier otro punto. }\end{cases} \] Considere los siguientes cinco estimadores de \(\theta\) : \[ \hat{\theta}_{1}=Y_{1}, \quad \hat{\theta}_{2}=\frac{Y_{1}+Y_{2}}{2}, \quad \hat{\theta}_{3}=\frac{Y_{1}+2 Y_{2}}{3}, \quad \hat{\theta}_{4}=\min \left(Y_{1}, Y_{2}, Y_{3}\right), \quad \hat{\theta}_{5}=\bar{Y} \]
- ¿Cuáles de estos estimadores son insesgados?
- Entre los estimadores insesgados, ¿cuál tiene la varianza más pequeña?
Algunos estimadores puntuales insesgados comunes
\[ \begin{array}{lcccc} \hline \begin{array}{c} \text { Parámetro } \\ \text { objetivo } \\ \theta \end{array} & \begin{array}{c} \text { Tamaño(s) } \\ \text { muestral(es) } \end{array} & \begin{array}{c} \text { Estimador } \\ \text { puntual } \end{array} & \hat{\theta} & E(\hat{\theta}) & \begin{array}{c} \text { Error } \\ \text { estándar } \end{array} \\ \hline \mu & n & \bar{Y} & \mu & \frac{\sigma_{\theta}}{\sqrt{n}} \\ \hline p & n & \hat{p}=\frac{Y}{n} & p & \sqrt{\frac{p q}{n}} \\ \hline \mu_{1}-\mu_{2} & n_{1} \text { y } n_{2} & \bar{Y}_{1}-\bar{Y}_{2} & \mu_{1}-\mu_{2} & \sqrt{\frac{\sigma_{1}^{2}}{n_{1}}+\frac{\sigma_{2}^{2}}{n_{2}}} \\ \hline p_{1}-p_{2} & n_{1} \text { y } n_{2} & \hat{p}_{1}-\hat{p}_{2} & p_{1}-p_{2} & \sqrt{\frac{p_{1} q_{1}}{n_{1}}+\frac{p_{2} q_{2}}{n_{2}}} \\ \hline \end{array} \]
Ejercicio
Una comparación de la durabilidad de dos tipos de llantas para automóvil se obtuvo de muestras de pruebas en carretera de \(n_1 = n_2 = 100\) llantas de cada tipo. Se registró el número de millas hasta quedar inútiles, el desgaste se definió como el número de millas hasta que la cantidad restante de superficie de rodamiento llegó a un valor pequeño especificado previamente.
Las mediciones para los dos tipos de llantas se obtuvieron de manera independiente y se calcularon las siguientes medias y varianzas: \(\bar{y}_1 = 26,400\) millas, \(\bar{y}_2 = 25,100\) millas, \(s^2_1 = 1,440,000\), \(s^2_2 = 1,960,000\). Estime la diferencia en la media de millas hasta quedar inútiles y precise un límite de error estándar de 2 en el error de estimación.
Propiedades de los estimadores puntuales y métodos de estimación
Definición:
Dados dos estimadores insesgados \(\hat{\theta}_{1}\) y \(\hat{\theta}_{2}\) de un parámetro \(\theta, \operatorname{con}\) varianzas \(V\left(\hat{\theta}_{1}\right)\) y \(V\left(\hat{\theta}_{2}\right)\), respectivamente, entonces la eficiencia de \(\hat{\theta}_{1}\) con respecto a \(\hat{\theta}_{2}\), denotada eff \(\left(\hat{\theta}_{1}, \hat{\theta}_{2}\right)\), se define como la razón \[ \operatorname{eff}\left(\hat{\theta}_{1}, \hat{\theta}_{2}\right)=\frac{V\left(\hat{\theta}_{2}\right)}{V\left(\hat{\theta}_{1}\right)} \]
Ejemplo
Sea \(Y_{1}, Y_{2}, \ldots, Y_{n}\) una muestra aleatoria de una distribución uniforme en el intervalo \((0, \theta)\). Dos estimadores insesgados para \(\theta\) son \[ \hat{\theta}_{1}=2 \bar{Y} \text { y } \hat{\theta}_{2}=\left(\frac{n+1}{n}\right) Y_{(n)}, \] cuando \(Y_{(n)}=\operatorname{máx}\left(Y_{1}, Y_{2}, \ldots, Y_{n}\right) .\) Encuentre la eficiencia de \(\hat{\theta}_{1}\) con respelcto a \(\hat{\theta}_{2}\).
Teorema:
Un estimador insesgado \(\hat{\theta}_{n}\) para \(\theta\) es un estimador consistente de \(\theta\) si \[ \lim _{n \rightarrow \infty} V\left(\hat{\theta}_{n}\right)=0 . \]
EJEMPLO
Sea \(Y_{1}, Y_{2}, \ldots, Y_{n}\) que representan una muestra aleatoria de una distribución con media \(\mu\) y varianza \(\sigma^{2}<\infty\). Demuestre que \(\bar{Y}_{n}=\frac{1}{n} \sum_{i=1}^{n} Y_{i}\) es un estimador consistente de \(\mu\). (Nota: usamos la notación \(\bar{Y}_{n}\) para indicar explícitamente que \(\bar{Y}\) se calcula usando una muestra de tamaño \(n\).)
Método de momentos
Es uno de los métodos más antiguos para obtener estimadores puntuales: el método de momentos. Un método más refinado, el de verosimilitud máxima.
El método de momentos es un procedimiento muy sencillo para hallar un estimador para uno o más parámetros poblacionales. Recuerde que el \(k\)-ésimo momento de una variable aleatoria, tomado alrededor del origen, es \[ \mu_{k}^{\prime}=E\left(Y^{k}\right) \] El correspondiente \(k\)-ésimo momento muestral es el promedio \[ m_{k}^{\prime}=\frac{1}{n} \sum_{i=1}^{n} Y_{i}^{k} \] El método de momentos está basado en la idea de que los momentos muestrales deben dar buenas estimaciones de los momentos poblacionales correspondientes.
Es decir, \(m_{k}^{\prime}\) debe ser un buen estimador de \(\mu_{k}^{\prime}\), para \(k=1,2, \ldots\) Entonces, debido a que los momentos poblacionales \(\mu_{1}^{\prime}, \mu_{2}^{\prime}, \ldots, \mu_{k}^{\prime}\) son funciones de los parámetros poblacionales, podemos igualar los correspondientes momentos poblacionales y muestrales y despejar los estimadores deseados. En consecuencia, el método de momentos se puede expresar como sigue.
Método de momentos
Escoja como estimaciones los valores de los parámetros que son soluciones de las ecuaciones \(\mu_{k}^{\prime}=m_{k}^{\prime}\), para \(k=1,2, \ldots, t\), donde \(t\) es el número de parámetros por estimar.
Ejemplo
Una muestra aleatoria de \(n\) observaciones, \(Y_{1}, Y_{2}, \ldots, Y_{n}\) se selecciona de una población en la que \(Y_{i}\), para \(i=1,2, \ldots, n\), posee una función de densidad de probabilidad uniforme en el intervalo \((0, \theta)\) donde \(\theta\) es desconocida. Use el método de momentos para estimar el parámetro \(\theta\).
El método de momentos es un procedimiento para obtener un estimador puntual de una variable aleatoria. Tenemos una variable aleatoria \(X\). Tenemos dos casos: que la variable siga una distribución puntual \(\left(p_{x}(x)\right)\) o que siga una distribución continua \(\left(f_{x}(x)\right)\). Definimos los momentos de orden k como: \[ \mu_{k}'=E\left[X^{k}\right]=\left\{\begin{array}{cl} \int_{-\infty}^{+\infty} x^{k} \cdot f(x) & \text { si } \mathrm{X} \text { es continua } \\ \sum_{x}^{k} x^{k} \cdot p(x) & \text { si } \mathrm{X} \text { es discreta } \end{array}\right. \] \(Y\) definimos los momentos muestrales de orden \(\mathbf{k}\) como: \[ m_{k}'=\frac{1}{n} \cdot \sum_{i=1}^{n} X_{i}^{k} \] El método de los momentos consiste en igualar los momentos poblacionales con los momentos muestrales, para hacer un sistema de \(k\) ecuaciones con \(k\) incógnitas, siendo \(k\) el número de parámetros que se quiere estimar.
Ejemplo 1
Sea \(X\) una variable aleatoria con función de densidad de probabilidad \(f(x)=\left\{\begin{array}{cc}\left(\frac{2}{\theta^{2}}\right)(\theta-x) & ; 0 \leq x \leq \theta \\ 0 & ; \text { cualquier otro caso }\end{array}\right.\)
Ejemplo 2
Una muestra aleatoria de \(n\) observaciones, \(Y_{1}, Y_{2}, \ldots, Y_{n}\) se selecciona de una población en la que \(Y_{i}\), para \(i=1,2, \ldots, n\), posee una función de densidad de probabilidad uniforme en el intervalo \((0, \theta)\) donde \(\theta\) es desconocida. Use el método de momentos para estimar el parámetro \(\theta\).