Ejercicio 1

En el ejercicio 1 de la Lista 2 obtuvimos que el estimador de \(\theta\) es:

\[ \hat{\theta}_{MM} = \frac{1}{n} \sum_{i=1}^{n} Y_i^2 \]

\[ E(\hat{\theta}_{MM}) = \theta \]

\[ V(\hat{\theta}_{MM}) = \frac{\theta(1 - \theta)}{n} \]

El ECM del estimador \(\hat{\theta}_{MM}\) es la suma de la varianza y el cuadrado del sesgo del estimador:

\[ \text{ECM}(\hat{\theta}_{MM}) = \mathbb{E}[(\hat{\theta}_{MM} - \theta)^2] = \text{Var}(\hat{\theta}_{MM}) + \left[\mathbb{E}(\hat{\theta}_{MM}) - \theta\right]^2 \]

Tenemos que:

  • \(\mathbb{E}(\hat{\theta}_{MM}) = \theta\) (el estimador es insesgado),
  • \(\text{Var}(\hat{\theta}_{MM}) = \frac{\theta(1 - \theta)}{n}\).

Entonces, como el sesgo es nulo (\(\mathbb{E}(\hat{\theta}_{MM}) - \theta = 0\)), el ECM se reduce simplemente a la varianza:

\[ \text{ECM}(\hat{\theta}_{MM}) = \text{Var}(\hat{\theta}_{MM}) = \frac{\theta(1 - \theta)}{n} \]

Un estimador es consistente si el ECM tiende a 0 cuando \(n \to \infty\). Como acabamos de ver, el ECM del estimador es:

\[ \text{ECM}(\hat{\theta}_{MM}) = \frac{\theta(1 - \theta)}{n} \]

Ahora tomamos el límite cuando \(n\) tiende a infinito:

\[ \lim_{n \to \infty} \text{ECM}(\hat{\theta}_{MM}) = \lim_{n \to \infty} \frac{\theta(1 - \theta)}{n} = 0 \]

\[ \boxed{ \text{ Dado que el ECM tiende a 0 cuando \(n \to \infty\), el estimador \(\hat{\theta}_{MM}\) es consistente. }} \]

Hemos calculado el Error Cuadrático Medio (ECM) del estimador \(\hat{\theta}_{MM}\) como \(\frac{\theta(1 - \theta)}{n}\). Al tomar el límite cuando el tamaño de la muestra \(n\) tiende a infinito, demostramos que el ECM tiende a cero, lo que significa que el estimador \(\hat{\theta}_{MM}\) es consistente para \(\theta\).

\[ \]

Ejercicio 2

El estimador de \(\beta\) por ambos métodos (momentos y máxima verosimilitud) es (calculado en el ejercicio 2 de la Lista 2):

\[ \hat{\beta}_{MM} = \hat{\beta}_{MV} = \frac{\bar{Y}}{3} \]

Sabemos que:

  • \(\mathbb{E}\left( \frac{\bar{Y}}{3} \right) = \beta\), lo que significa que el estimador es insesgado.
  • La varianza de \(\frac{\bar{Y}}{3}\) es \(\text{Var}\left( \frac{\bar{Y}}{3} \right) = \frac{\beta^2}{3n}\).

El Error Cuadrático Medio (ECM) se define como:

\[ \text{ECM}(\hat{\beta}) = \text{Var}(\hat{\beta}) + [\mathbb{E}(\hat{\beta}) - \beta]^2 \]

Dado que \(\hat{\beta}\) es insesgado (\(\mathbb{E}(\hat{\beta}) = \beta\)), el ECM se reduce simplemente a la varianza:

\[ \text{ECM}(\hat{\beta}) = \frac{\beta^2}{3n} \]

Para demostrar la consistencia, tomamos el límite del ECM cuando \(n\) tiende a infinito:

\[ \lim_{n \to \infty} \text{ECM}(\hat{\beta}) = \lim_{n \to \infty} \frac{\beta^2}{3n} = 0 \]

Dado que el ECM tiende a 0 cuando \(n \to \infty\), el estimador es consistente.

\[ \]

Parte 2

En este caso, la función \(\tau(\beta) = \beta\) tiene un estimador eficiente, y este estimador es:

\[ \hat{\beta}_{MV} = \frac{\bar{Y}}{3} \]

Este es un estimador eficiente para \(\beta\), ya que cumple con la varianza mínima posible dada por el límite de Cramér-Rao.

\[ E\left[\left(\frac{\partial}{\partial \beta} \ln f_4(\vec{y}|\beta)\right)^2\right] = E\left[\left(\frac{3n}{\beta^2} \left(\frac{\sum y_i}{3n} - \beta\right)\right)^2\right] \]

\[ = E\left[\frac{9n^2}{\beta^4} \left(\frac{\sum y_i}{3n} - \beta\right)^2\right] = \frac{9n^2}{\beta^4} E\left[\left(\frac{\bar{y}}{3} - \beta\right)^2\right] \]

\[ = \frac{9n^2}{\beta^4} \cdot \frac{\beta^2}{3n} = \frac{3n}{\beta^2} \]

\[ \Rightarrow CCR(\vec{y}|\beta) = \frac{\beta^2}{3n} \]

La CCR es igual a la varianza del estimador por lo que es el eficiente:

\[ V\left(\frac{\bar{Y}}{3}\right) = \frac{\beta^2}{3n} \]

\[ \]

Otra forma de resolverlo:

\[ \boxed{ \textbf{Recordatorio del corolario para analizar eficiencia:} \\ \text{Si se cumple: } \frac{\partial \ln f_Y(\vec{y}|\theta)}{\partial \theta} = a(\theta) (T(\vec{y}) - \tau(\theta)) \\ \text{entonces, } T(\vec{y}) \text{ es eficiente para estimar } \tau(\theta) = \theta. } \]

\[ f_y(\vec{y}|\beta) = \frac{1}{2^n \beta^{3n}} \prod y_i^2 \cdot e^{-\frac{1}{\beta} \sum y_i} \]

\[ \Rightarrow \ln f_y(\vec{y}|\beta) = -n \ln 2 - 3n \ln \beta + \ln \prod y_i^2 - \frac{1}{\beta} \sum y_i \]

\[ \frac{\partial \ln f_y(\vec{y})}{\partial \beta} = \frac{-3n}{\beta} + \frac{\sum y_i}{\beta^2} = \frac{1}{\beta^2} (-3n \beta + \sum y_i) = \frac{3n}{\beta^2} (\beta - \frac{\sum y_i}{3n}) \]

Por lo tanto \(\frac{\bar{Y}}{3}\) es eficiente para estimar a \(\beta\)

\[ \]

Parte 3

\[ \boxed{ \text{Para encontrar un estadístico suficiente para } \beta, \\ \text{utilizamos el teorema de factorización de Neyman-Fisher.} \\ \text{El teorema dice que un estadístico T(Y) es suficiente si la }\\ \text{función de verosimilitud se puede factorizar de la forma:} \\ f(Y_1, ..., Y_n|\beta) = g(T(Y), \beta) . h(Y_1, ..., Y_n) } \]

La función de verosimilitud para una muestra \(Y_1, Y_2, ..., Y_n\) de tamaño \(n\) proveniente de una distribución \(Gamma(3, \beta)\) es:

\[ L(\beta | Y_1, ..., Y_n) = \prod_{i=1}^n \frac{Y_i^2 e^{-Y_i/\beta}}{\beta^3 \Gamma(3)} \]

Simplificando esta expresión:

\[ L(\beta | Y_1, ..., Y_n) = \frac{1}{\beta^{3n}} \exp\left(- \frac{1}{\beta} \sum_{i=1}^n Y_i \right) \prod_{i=1}^n Y_i^2 \]

El término que depende de \(\beta\) es:

\[ g\left( \sum_{i=1}^n Y_i, \beta \right) = \frac{1}{\beta^{3n}} \exp\left(- \frac{1}{\beta} \sum_{i=1}^n Y_i \right) \]

Por lo tanto, el estadístico suficiente para \(\beta\) es:

\[ T(\mathbf{Y}) = \sum_{i=1}^n Y_i \]

Este es un estadístico suficiente para \(\beta\), ya que la verosimilitud se puede factorizar en función de \(\sum_{i=1}^n Y_i\).

\[ \]

Ejercicio 3

El estimador de máxima verosimilitud (MV) de \(\theta\) (encontrado en el ejercicio 3 de la Lista 2) es:

\[ \hat{\theta}_{MV} = \frac{1}{n} \sum_{i=1}^{n} \frac{1}{y_i} \]

\[ \mathbb{E}[\hat{\theta}_{MV}] = \theta \]

\[ \text{Var}(\hat{\theta}_{MV}) = \frac{\theta^2}{n} \]

Para demostrar que este estimador es consistente, necesitamos mostrar que el Error Cuadrático Medio (ECM) tiende a 0 cuando \(n\) tiende a infinito.

El ECM se define como:

\[ \text{ECM}(\hat{\theta}_{MV}) = \text{Var}(\hat{\theta}_{MV}) + [\mathbb{E}(\hat{\theta}_{MV}) - \theta]^2 \]

Dado que \(\hat{\theta}_{MV}\) es insesgado (\(\mathbb{E}[\hat{\theta}_{MV}] = \theta\)), el ECM se reduce a la varianza:

\[ \text{ECM}(\hat{\theta}_{MV}) = \frac{\theta^2}{n} \]

Tomamos el límite cuando \(n \to \infty\):

\[ \lim_{n \to \infty} \text{ECM}(\hat{\theta}_{MV}) = \lim_{n \to \infty} \frac{\theta^2}{n} = 0 \]

Dado que el ECM tiende a 0 cuando \(n\) tiende a infinito, podemos concluir que el estimador \(\hat{\theta}_{MV}\) es consistente.

\[ \]

Parte 2

Para determinar para qué función \(\tau(\theta)\) existe un estimador eficiente, necesitamos usar el concepto del estimador eficiente y el teorema de Cramér-Rao.

La función de densidad dada es:

\[ f_Y(y|\theta) = \frac{1}{\theta y^2} \exp\left( -\frac{1}{\theta y} \right), \quad y > 0 \]

La información de Fisher \(I(\theta)\) para esta distribución se puede obtener a partir de la derivada del logaritmo de la función de verosimilitud. El teorema de Cramér-Rao nos dice que el estimador eficiente tiene una varianza que alcanza el límite inferior dado por la información de Fisher.

El estimador eficiente en este caso es el estimador de máxima verosimilitud \(\hat{\theta}_{MV}\), que ya hemos derivado como:

\[ \hat{\theta}_{MV} = \frac{1}{n} \sum_{i=1}^{n} \frac{1}{y_i} \]

Este es un estimador eficiente para \(\theta\), ya que su varianza alcanza el límite inferior de Cramér-Rao.

Por lo tanto, para la función \(\tau(\theta) = \theta\), el estimador \(\hat{\theta}_{MV}\) es eficiente.

\[ \]

Parte 3

Para encontrar un estadístico suficiente para \(\theta\), utilizamos el teorema de factorización de Neyman-Fisher, que establece que un estadístico es suficiente si la función de verosimilitud puede factorizarse de la forma:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = g(T(\mathbf{Y}), \theta) h(\mathbf{Y}) \]

La función de verosimilitud para \(n\) observaciones \(Y_1, Y_2, \ldots, Y_n\) provenientes de una distribución con la densidad dada es:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = \prod_{i=1}^{n} \frac{1}{\theta y_i^2} \exp\left(- \frac{1}{\theta y_i} \right) \]

Simplificando:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = \frac{1}{\theta^n} \prod_{i=1}^{n} \frac{1}{y_i^2} \exp\left(- \frac{1}{\theta} \sum_{i=1}^{n} \frac{1}{y_i} \right) \]

Podemos ver que la verosimilitud se factoriza en dos partes, una de las cuales depende de \(\theta\) y de \(\sum_{i=1}^{n} \frac{1}{y_i}\):

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = g\left( \sum_{i=1}^{n} \frac{1}{y_i}, \theta \right) h(Y_1, Y_2, \ldots, Y_n) \]

Por lo tanto, el estadístico suficiente para \(\theta\) es:

\[ T(\mathbf{Y}) = \sum_{i=1}^{n} \frac{1}{y_i} \]

\[ \]

Ejercicio 4

El estimador de \(\theta\) por el método de los momentos es (encontrado en el ejercicio 4 de la Lista 2):

\[ \hat{\theta}_{MM} = \frac{3\bar{Y}}{4} \]

Sabemos que:

  • \(\mathbb{E}(\hat{\theta}_{MM}) = \theta\), es decir, el estimador es insesgado.
  • La varianza de \(\hat{\theta}_{MM}\) es:

\[ \text{Var}(\hat{\theta}_{MM}) = \frac{\theta^2}{8n} \]

El Error Cuadrático Medio (ECM) se define como:

\[ \text{ECM}(\hat{\theta}_{MM}) = \text{Var}(\hat{\theta}_{MM}) + [\mathbb{E}(\hat{\theta}_{MM}) - \theta]^2 \]

Dado que \(\hat{\theta}_{MM}\) es insesgado, el ECM se reduce simplemente a la varianza:

\[ \text{ECM}(\hat{\theta}_{MM}) = \frac{\theta^2}{8n} \]

Ahora, tomamos el límite cuando \(n \to \infty\):

\[ \lim_{n \to \infty} \text{ECM}(\hat{\theta}_{MM}) = \lim_{n \to \infty} \frac{\theta^2}{8n} = 0 \]

Dado que el ECM tiende a 0 cuando \(n \to \infty\), el estimador \(\hat{\theta}_{MM}\) es consistente.

El estimador de máxima verosimilitud es (encontrado en el ejercicio 4 de la Lista 2):

\[ \hat{\theta}_{MV} = Y_{(1)} \]

Donde \(Y_{(1)}\) es el mínimo de la muestra (el estadístico de orden 1). Para este estimador tenemos:

  • \(\mathbb{E}(\hat{\theta}_{MV}) = \frac{4n}{4n - 1} \theta\)
  • La varianza es:

\[ \text{Var}(\hat{\theta}_{MV}) = \frac{4n \theta^2}{(4n - 1)^2 (4n - 2)} \]

Para demostrar que el estimador es consistente, debemos comprobar que el ECM tiende a 0 cuando \(n\) tiende a infinito. El ECM se define como:

\[ \text{ECM}(\hat{\theta}_{MV}) = \text{Var}(\hat{\theta}_{MV}) + [\mathbb{E}(\hat{\theta}_{MV}) - \theta]^2 \]

Primero, calculemos el sesgo del estimador:

\[ \text{Sesgo} = \mathbb{E}(\hat{\theta}_{MV}) - \theta = \left( \frac{4n}{4n - 1} \right) \theta - \theta = \frac{\theta}{4n - 1} \]

El cuadrado del sesgo es:

\[ [\mathbb{E}(\hat{\theta}_{MV}) - \theta]^2 = \left( \frac{\theta}{4n - 1} \right)^2 \]

Ahora calculemos el ECM completo:

\[ \text{ECM}(\hat{\theta}_{MV}) = \frac{4n \theta^2}{(4n - 1)^2 (4n - 2)} + \left( \frac{\theta}{4n - 1} \right)^2 \]

Para demostrar la consistencia, tomamos el límite cuando \(n \to \infty\):

\[ \lim_{n \to \infty} \text{ECM}(\hat{\theta}_{MV}) = 0 \]

Por lo tanto, el estimador \(\hat{\theta}_{MV}\) también es consistente.

\[ \]

Parte 2

Para encontrar un estadístico suficiente para \(\theta\), utilizamos el teorema de factorización de Neyman-Fisher. Este teorema establece que un estadístico \(T(Y_1, Y_2, \ldots, Y_n)\) es suficiente si la función de verosimilitud se puede factorizar de la forma:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = g(T(\mathbf{Y}), \theta) h(\mathbf{Y}) \]

La función de verosimilitud para \(Y_1, Y_2, \ldots, Y_n\) provenientes de una distribución Pareto es:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = \prod_{i=1}^{n} \frac{4 \theta^4}{y_i^5} I_{[y_i \geq \theta]} \]

Simplificando:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = 4^n \theta^{4n} \prod_{i=1}^{n} \frac{1}{y_i^5} I_{[\theta \leq Y_{(1)}]} \]

Podemos ver que la verosimilitud depende de \(\theta\) a través del estadístico \(Y_{(1)} = \min(Y_1, Y_2, \ldots, Y_n)\). Por lo tanto, el estadístico suficiente para \(\theta\) es:

\[ T(\mathbf{Y}) = Y_{(1)} \]

\[ \]

Ejercicio 5

¿Para qué función \(\tau(p)\) existe un estimador eficiente? ¿Cuál es dicho estimador?

La distribución de \(\text{Bernoulli}(p)\) tiene dos posibles resultados: \(Y_i = 1\) con probabilidad \(p\) y \(Y_i = 0\) con probabilidad \(1 - p\). El parámetro \(p\) es la probabilidad de éxito.

El estimador eficiente es aquel que minimiza la varianza entre todos los estimadores insesgados de una función del parámetro \(p\).

La función de verosimilitud para una muestra \(Y_1, Y_2, \ldots, Y_n\) proveniente de una población Bernoulli \(p\) es:

\[ L(p|Y_1, Y_2, \ldots, Y_n) = \prod_{i=1}^{n} p^{Y_i} (1 - p)^{1 - Y_i} \]

Tomando el logaritmo de la función de verosimilitud:

\[ \log L(p|Y_1, Y_2, \ldots, Y_n) = \sum_{i=1}^{n} \left( Y_i \log(p) + (1 - Y_i) \log(1 - p) \right) \]

Derivando respecto a \(p\) para encontrar el estimador de máxima verosimilitud (MV):

\[ \frac{\partial}{\partial p} \log L(p|Y_1, Y_2, \ldots, Y_n) = \frac{\sum_{i=1}^{n} Y_i}{p} - \frac{n - \sum_{i=1}^{n} Y_i}{1 - p} \]

Igualando a 0 y resolviendo para \(p\), obtenemos el estimador de máxima verosimilitud:

\[ \hat{p} = \bar{Y} = \frac{1}{n} \sum_{i=1}^{n} Y_i \]

Este estimador es eficiente para \(\tau(p) = p\), ya que alcanza la varianza mínima posible dada por el límite inferior de Cramér-Rao.

Usando el corolario:

Tomando el logaritmo de la verosimilitud:

\[ \ln L(p|\vec{y}) = \sum_{i=1}^{n} \left[ y_i \ln p + (1 - y_i) \ln (1 - p) \right] \]

\[ \ln L(p|\vec{y}) = \left( \sum_{i=1}^{n} y_i \right) \ln p + \left( n - \sum_{i=1}^{n} y_i \right) \ln (1 - p) \]

\[ \frac{\partial \ln L(p|\vec{y})}{\partial p} = \frac{\sum_{i=1}^{n} y_i}{p} - \frac{n - \sum_{i=1}^{n} y_i}{1 - p} \]

Simplificando:

\[ \frac{\partial \ln L(p|\vec{y})}{\partial p} = \frac{\sum_{i=1}^{n} y_i}{p} - \frac{n - \sum_{i=1}^{n} y_i}{1 - p} \]

La condición de eficiencia que debemos cumplir es la siguiente:

\[ \frac{\partial \ln f_Y(\vec{y}|\theta)}{\partial \theta} = a(p) (T(\vec{y}) - p) \]

Comparando esta ecuación con la derivada que hemos obtenido, podemos identificar:

  • \(T(\vec{y}) = \sum_{i=1}^{n} y_i\), que es el estadístico suficiente para \(p\).

\[ \]

Parte 2 ¿Es consistente el estimador hallado en 1 para estimar \(p\)?

Un estimador es consistente si su Error Cuadrático Medio (ECM) tiende a 0 a medida que \(n\) tiende a infinito, o equivalentemente, si cumple con la Ley de los Grandes Números (LDGN).

El estimador \(\hat{p} = \bar{Y}\) es la media muestral de variables independientes y distribuidas idénticamente (i.i.d.) \(Y_i \sim \text{Bernoulli}(p)\). Por la Ley de los Grandes Números, sabemos que:

\[ \bar{Y} \xrightarrow{P} p \]

Esto significa que \(\hat{p} = \bar{Y}\) es consistente para estimar \(p\), ya que la media muestral converge en probabilidad a \(p\) cuando \(n \to \infty\).

\[ \]

Parte 3

Para encontrar un estadístico suficiente para \(p\), utilizamos el teorema de factorización de Neyman-Fisher, que establece que un estadístico es suficiente si la función de verosimilitud se puede factorizar en dos partes: una que depende solo del parámetro \(p\) y del estadístico, y otra que no depende del parámetro.

La función de verosimilitud es:

\[ L(p | Y_1, Y_2, \ldots, Y_n) = p^{\sum_{i=1}^{n} Y_i} (1 - p)^{n - \sum_{i=1}^{n} Y_i} \]

Podemos ver que la verosimilitud depende de \(p\) a través de la suma \(\sum_{i=1}^{n} Y_i\), que es equivalente a \(n \bar{Y}\). Esto sugiere que la media muestral \(\bar{Y}\) contiene toda la información sobre \(p\).

Por lo tanto, el estadístico suficiente para \(p\) es:

\[ T(\mathbf{Y}) = \bar{Y} \]

\[ \]

Ejercicio 6

Tenemos una muestra aleatoria \(Y_1, Y_2, \ldots, Y_n\) proveniente de una población con distribución Poisson(\(\lambda\)), donde \(\lambda\) es el parámetro de la media y varianza.

La función de masa de probabilidad para una distribución Poisson(\(\lambda\)) es:

\[ f_Y(y|\lambda) = \frac{\lambda^y e^{-\lambda}}{y!}, \quad y = 0, 1, 2, \ldots \]

La función de verosimilitud para una muestra \(Y_1, Y_2, \ldots, Y_n\) es:

\[ L(\lambda | Y_1, Y_2, \ldots, Y_n) = \prod_{i=1}^{n} \frac{\lambda^{Y_i} e^{-\lambda}}{Y_i!} = \frac{\lambda^{\sum Y_i} e^{-n\lambda}}{\prod Y_i!} \]

El logaritmo de la función de verosimilitud es:

\[ \log L(\lambda | Y_1, Y_2, \ldots, Y_n) = \sum_{i=1}^{n} Y_i \log(\lambda) - n\lambda - \sum \log(Y_i!) \]

Para encontrar el estimador de máxima verosimilitud (MV), derivamos el logaritmo de la verosimilitud respecto a \(\lambda\) e igualamos a 0:

\[ \frac{\partial}{\partial \lambda} \log L(\lambda | Y_1, Y_2, \ldots, Y_n) = \frac{\sum_{i=1}^{n} Y_i}{\lambda} - n = 0 \]

Resolviendo para \(\lambda\):

\[ \hat{\lambda}_{MV} = \bar{Y} = \frac{1}{n} \sum_{i=1}^{n} Y_i \]

Este es el estimador de máxima verosimilitud para \(\lambda\), y también es el estimador eficiente, ya que minimiza la varianza entre todos los estimadores insesgados de \(\lambda\).

\[ \]

Parte 2 ¿El estimador hallado en 1 es consistente para estimar \(\lambda\)?

Un estimador es consistente si su Error Cuadrático Medio (ECM) tiende a 0 a medida que el tamaño de la muestra \(n\) tiende a infinito, o si por la Ley de los Grandes Números (LDGN), el estimador converge en probabilidad al verdadero valor del parámetro.

Dado que \(\hat{\lambda}_{MV} = \bar{Y}\) es la media muestral de variables independientes y distribuidas idénticamente (i.i.d.) \(Y_i \sim \text{Poisson}(\lambda)\), por la Ley de los Grandes Números, tenemos que:

\[ \bar{Y} \xrightarrow{P} \lambda \quad \text{cuando} \quad n \to \infty \]

Esto significa que \(\hat{\lambda}_{MV} = \bar{Y}\) es consistente para estimar \(\lambda\), ya que la media muestral converge en probabilidad al valor real de \(\lambda\) a medida que aumenta el tamaño de la muestra.

\[ \]

Parte 3

Para encontrar un estadístico suficiente para \(\lambda\), utilizamos el teorema de factorización de Neyman-Fisher. El teorema establece que un estadístico es suficiente si la función de verosimilitud se puede factorizar en dos partes: una que depende del parámetro \(\lambda\) y del estadístico, y otra que no depende de \(\lambda\).

La función de verosimilitud para la distribución de Poisson es:

\[ L(\lambda | Y_1, Y_2, \ldots, Y_n) = \frac{\lambda^{\sum Y_i} e^{-n\lambda}}{\prod Y_i!} \]

Podemos ver que la verosimilitud depende de \(\lambda\) a través de la suma \(\sum_{i=1}^{n} Y_i\), lo que sugiere que esta suma contiene toda la información sobre \(\lambda\).

Por lo tanto, el estadístico suficiente para \(\lambda\) es:

\[ T(\mathbf{Y}) = \sum_{i=1}^{n} Y_i \]

Dado que \(\bar{Y} = \frac{1}{n} \sum_{i=1}^{n} Y_i\), el promedio muestral también es suficiente para estimar \(\lambda\).

\[ \]

Ejercicio 9.3 del Libro

Supongamos que \(Y_1, Y_2, \ldots, Y_n\) denotan una muestra aleatoria de una distribución uniforme en el intervalo \((\theta, \theta + 1)\). Se definen dos estimadores de \(\theta\) de la siguiente forma:

\[ \hat{\theta}_1 = \bar{Y} - \frac{1}{2} \] \[ \hat{\theta}_2 = Y_{(n)} - \frac{n}{n+1} \]

  1. Demuestre que \(\hat{\theta}_1\) y \(\hat{\theta}_2\) son estimadores insesgados de \(\theta\).

  2. Encuentre la eficiencia de \(\hat{\theta}_1\) con respecto a \(\hat{\theta}_2\).

Un estimador es insesgado si su esperanza matemática es igual al valor del parámetro que está estimando, es decir:

\[ \mathbb{E}[\hat{\theta}] = \theta \]

\[ \hat{\theta}_1 = \bar{Y} - \frac{1}{2} \]

Sabemos que \(Y_i \sim U(\theta, \theta + 1)\), lo que implica que la media de \(Y_i\) es:

\[ \mathbb{E}[Y_i] = \frac{\theta + (\theta + 1)}{2} = \theta + \frac{1}{2} \]

Entonces, la media de la muestra \(\bar{Y}\) es:

\[ \mathbb{E}[\bar{Y}] = \theta + \frac{1}{2} \]

Ahora, calculamos la esperanza de \(\hat{\theta}_1\):

\[ \mathbb{E}[\hat{\theta}_1] = \mathbb{E}\left[\bar{Y} - \frac{1}{2}\right] = \mathbb{E}[\bar{Y}] - \frac{1}{2} = \left(\theta + \frac{1}{2}\right) - \frac{1}{2} = \theta \]

Por lo tanto, \(\hat{\theta}_1\) es un estimador insesgado de \(\theta\).

\[ \hat{\theta}_2 = Y_{(n)} - \frac{n}{n+1} \]

Sabemos que \(Y_{(n)}\), el valor máximo de la muestra, sigue una distribución de orden para \(Y_i \sim U(\theta, \theta + 1)\). La esperanza de \(Y_{(n)}\) es:

\[ \mathbb{E}[Y_{(n)}] = \theta + \frac{n}{n+1} \]

Ahora, calculamos la esperanza de \(\hat{\theta}_2\):

\[ \mathbb{E}[\hat{\theta}_2] = \mathbb{E}\left[Y_{(n)} - \frac{n}{n+1}\right] = \mathbb{E}[Y_{(n)}] - \frac{n}{n+1} = \left(\theta + \frac{n}{n+1}\right) - \frac{n}{n+1} = \theta \]

Por lo tanto, \(\hat{\theta}_2\) es también un estimador insesgado de \(\theta\).

La eficiencia relativa de un estimador \(\hat{\theta}_1\) respecto a otro estimador \(\hat{\theta}_2\) se define como:

\[ \text{eff}(\hat{\theta}_1, \hat{\theta}_2) = \frac{\text{Var}(\hat{\theta}_2)}{\text{Var}(\hat{\theta}_1)} \]

La varianza de la media muestral \(\bar{Y}\) para una muestra \(Y_i \sim U(\theta, \theta + 1)\) es:

\[ \text{Var}(Y_i) = \frac{(1)^2}{12} = \frac{1}{12} \]

Por lo tanto, la varianza de la media \(\bar{Y}\) es:

\[ \text{Var}(\bar{Y}) = \frac{1}{12n} \]

Dado que \(\hat{\theta}_1 = \bar{Y} - \frac{1}{2}\), la varianza de \(\hat{\theta}_1\) es la misma que la de \(\bar{Y}\):

\[ \text{Var}(\hat{\theta}_1) = \frac{1}{12n} \]

La varianza de \(Y_{(n)}\) es conocida y se puede calcular como:

\[ \text{Var}(Y_{(n)}) = \frac{n}{(n+2)(n+1)^2} \]

Por lo tanto, la varianza de \(\hat{\theta}_2 = Y_{(n)} - \frac{n}{n+1}\) es:

\[ \text{Var}(\hat{\theta}_2) = \frac{n}{(n+2)(n+1)^2} \]

Ahora podemos calcular la eficiencia relativa de \(\hat{\theta}_1\) con respecto a \(\hat{\theta}_2\):

\[ \text{eff}(\hat{\theta}_1, \hat{\theta}_2) = \frac{\text{Var}(\hat{\theta}_2)}{\text{Var}(\hat{\theta}_1)} = \frac{\frac{n}{(n+2)(n+1)^2}}{\frac{1}{12n}} = \frac{12n^2}{(n+2)(n+1)^2} \]

\[ \]

Ejercicio 9.42 del Libro

Si \(Y_1, Y_2, \ldots, Y_n\) denotan una muestra aleatoria de una distribución geométrica con parámetro \(p\), demuestre que \(\bar{Y}\) es suficiente para \(p\).

Para demostrar que \(\bar{Y}\) es un estadístico suficiente para \(p\) en una muestra aleatoria de una distribución geométrica con parámetro \(p\), utilizaremos el teorema de factorización de Neyman-Fisher. Este teorema establece que un estadístico \(T(Y)\) es suficiente para un parámetro \(\theta\) si la función de verosimilitud \(L(\theta | Y)\) se puede factorizar en la forma:

\[ L(\theta | Y) = g(T(Y), \theta) h(Y) \]

Es decir, la función de verosimilitud puede descomponerse en una parte que depende de \(\theta\) y del estadístico \(T(Y)\), y una parte que no depende de \(\theta\).

La función de probabilidad de una variable aleatoria \(Y_i \sim \text{Geom}(p)\) es:

\[ P(Y_i = y_i) = p(1 - p)^{y_i - 1}, \quad \text{para} \quad y_i = 1, 2, 3, \ldots \]

Dado que tenemos una muestra aleatoria \(Y_1, Y_2, \ldots, Y_n\), la función de verosimilitud \(L(p)\) para esta muestra es el producto de las probabilidades individuales:

\[ L(p | Y_1, Y_2, \ldots, Y_n) = \prod_{i=1}^{n} p(1 - p)^{y_i - 1} \]

Podemos simplificar esta expresión como:

\[ L(p | Y_1, Y_2, \ldots, Y_n) = p^n (1 - p)^{\sum_{i=1}^{n} (y_i - 1)} = p^n (1 - p)^{\sum_{i=1}^{n} y_i - n} \]

Ahora, definimos \(\bar{Y} = \frac{1}{n} \sum_{i=1}^{n} Y_i\), lo que implica que:

\[ \sum_{i=1}^{n} y_i = n \bar{Y} \]

Sustituyendo esto en la función de verosimilitud:

\[ L(p | Y_1, Y_2, \ldots, Y_n) = p^n (1 - p)^{n \bar{Y} - n} \]

Aplicación del teorema de factorización de Neyman-Fisher

La función de verosimilitud obtenida se puede escribir como:

\[ L(p | Y_1, Y_2, \ldots, Y_n) = p^n (1 - p)^{n(\bar{Y} - 1)} \]

Observamos que esta función se ha factorizado de manera que depende de \(p\) y de \(\bar{Y}\), la media muestral. Es decir, podemos identificar la parte que depende del parámetro \(p\) y de \(\bar{Y}\), y la parte que no depende de \(p\):

\[ L(p | Y_1, Y_2, \ldots, Y_n) = g(\bar{Y}, p) h(Y) \]

Donde:

  • \(g(\bar{Y}, p) = p^n (1 - p)^{n(\bar{Y} - 1)}\),
  • \(h(Y) = 1\) (es decir, no depende de \(p\)).

Dado que hemos factorizado la función de verosimilitud en una forma que satisface el teorema de factorización de Neyman-Fisher, podemos concluir que:

\[ \bar{Y} \quad \text{es un estadístico suficiente para} \quad p \]

Resumen: Hemos demostrado que la media muestral \(\bar{Y}\) es un estadístico suficiente para el parámetro \(p\) en una muestra aleatoria de una distribución geométrica utilizando el teorema de factorización de Neyman-Fisher. La función de verosimilitud se factoriza en una parte que depende de \(p\) y de \(\bar{Y}\), lo que demuestra que \(\bar{Y}\) contiene toda la información necesaria sobre \(p\) en los datos.

\[ \]

Ejercicio 9.49 del Libro

Sea \(Y_1, Y_2, \ldots, Y_n\) una muestra aleatoria de una distribución uniforme en el intervalo \((0, \theta)\). Demuestre que \(Y_{(n)} = \max(Y_1, Y_2, \ldots, Y_n)\) es suficiente para \(\theta\).

Para demostrar que \(Y_{(n)}\) es un estadístico suficiente para \(\theta\), utilizaremos el teorema de factorización de Neyman-Fisher. Este teorema establece que un estadístico \(T(Y)\) es suficiente para un parámetro \(\theta\) si la función de verosimilitud \(L(\theta | Y)\) se puede factorizar en la forma:

\[ L(\theta | Y) = g(T(Y), \theta) h(Y) \]

Es decir, la función de verosimilitud puede descomponerse en una parte que depende de \(\theta\) y del estadístico \(T(Y)\), y una parte que no depende de \(\theta\).

Sabemos que la función de densidad para una variable aleatoria \(Y_i \sim U(0, \theta)\) es:

\[ f(y_i | \theta) = \frac{1}{\theta} I_{[0 \leq y_i \leq \theta]} \]

donde \(I_{[0 \leq y_i \leq \theta]}\) es la función indicadora, que vale 1 si \(y_i\) está en el intervalo \([0, \theta]\) y 0 en caso contrario.

Dado que tenemos una muestra \(Y_1, Y_2, \ldots, Y_n\) de variables independientes, la función de verosimilitud \(L(\theta)\) para esta muestra es el producto de las densidades individuales:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = \prod_{i=1}^{n} \frac{1}{\theta} I_{[0 \leq y_i \leq \theta]} \]

Esto se puede simplificar como:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = \frac{1}{\theta^n} \prod_{i=1}^{n} I_{[0 \leq y_i \leq \theta]} \]

Para que esta función sea positiva, \(\theta\) debe ser mayor o igual que el máximo de los \(y_i\). En otras palabras, \(\theta \geq Y_{(n)}\), donde \(Y_{(n)} = \max(Y_1, Y_2, \ldots, Y_n)\).

Por lo tanto, la función de verosimilitud se convierte en:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = \frac{1}{\theta^n} I_{[\theta \geq Y_{(n)}]} \]

Aplicación del teorema de factorización de Neyman-Fisher

La función de verosimilitud obtenida se puede escribir como:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = g(Y_{(n)}, \theta) h(Y_1, Y_2, \ldots, Y_n) \]

donde:

  • \(g(Y_{(n)}, \theta) = \frac{1}{\theta^n} I_{[\theta \geq Y_{(n)}]}\),
  • \(h(Y_1, Y_2, \ldots, Y_n) = 1\).

La función \(h(Y_1, Y_2, \ldots, Y_n)\) no depende de \(\theta\), mientras que la parte \(g(Y_{(n)}, \theta)\) depende de \(\theta\) y de \(Y_{(n)}\).

Dado que hemos factorizado la función de verosimilitud en una forma que satisface el teorema de factorización de Neyman-Fisher, podemos concluir que:

\[ Y_{(n)} = \max(Y_1, Y_2, \ldots, Y_n) \quad \text{es un estadístico suficiente para} \quad \theta \]

Hemos demostrado que el valor máximo de la muestra \(Y_{(n)}\) es un estadístico suficiente para el parámetro \(\theta\) en una muestra aleatoria de una distribución uniforme \(U(0, \theta)\) utilizando el teorema de factorización de Neyman-Fisher. La función de verosimilitud se factoriza en una parte que depende de \(\theta\) y de \(Y_{(n)}\), lo que demuestra que \(Y_{(n)}\) contiene toda la información necesaria sobre \(\theta\).

\[ \]

Ejercicio 9.51 del Libro

Sea \(Y_1, Y_2, \ldots, Y_n\) una muestra aleatoria de la función de densidad de probabilidad:

\[ f(y | \theta) = \begin{cases} e^{-(y - \theta)}, & y \geq \theta, \\ 0, & \text{en cualquier otro punto.} \end{cases} \]

Demuestre que \(Y_{(1)} = \min(Y_1, Y_2, \ldots, Y_n)\) es suficiente para \(\theta\).

Para demostrar que \(Y_{(1)} = \min(Y_1, Y_2, \ldots, Y_n)\) es suficiente para \(\theta\), utilizaremos el teorema de factorización de Neyman-Fisher. Este teorema establece que un estadístico \(T(Y)\) es suficiente para un parámetro \(\theta\) si la función de verosimilitud \(L(\theta | Y)\) se puede factorizar en la forma:

\[ L(\theta | Y) = g(T(Y), \theta) h(Y) \]

Es decir, la función de verosimilitud puede descomponerse en una parte que depende de \(\theta\) y del estadístico \(T(Y)\), y una parte que no depende de \(\theta\).

Dado que los \(Y_i\) son independientes e identicamente distribuidos (i.i.d.) con la función de densidad dada, la función de densidad conjunta para la muestra \(Y_1, Y_2, \ldots, Y_n\) es el producto de las densidades individuales:

\[ f(y_1, y_2, \ldots, y_n | \theta) = \prod_{i=1}^{n} e^{-(y_i - \theta)} I_{[y_i \geq \theta]} \]

donde \(I_{[y_i \geq \theta]}\) es una función indicadora que vale 1 si \(y_i \geq \theta\) y 0 en caso contrario. Esto se simplifica a:

\[ f(y_1, y_2, \ldots, y_n | \theta) = e^{-\sum_{i=1}^{n} (y_i - \theta)} I_{[\min(y_1, \ldots, y_n) \geq \theta]} \]

Observamos que \(\sum_{i=1}^{n} y_i - n\theta = \sum_{i=1}^{n} y_i - nY_{(1)}\) (ya que \(Y_{(1)} \leq y_i\) para todos los \(i\)) y la función indicadora ahora depende de \(Y_{(1)}\).

La función de verosimilitud \(L(\theta)\) para la muestra es simplemente la densidad conjunta tratada como función de \(\theta\):

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = e^{-\sum_{i=1}^{n} (y_i - \theta)} I_{[\min(y_1, \ldots, y_n) \geq \theta]} \]

Esto se simplifica aún más como:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = e^{-n(Y_{(1)} - \theta)} I_{[\theta \leq Y_{(1)}]} \]

La función de verosimilitud obtenida se puede escribir en la forma requerida por el teorema de factorización de Neyman-Fisher:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = g(Y_{(1)}, \theta) h(Y_1, Y_2, \ldots, Y_n) \]

donde:

  • \(g(Y_{(1)}, \theta) = e^{-n(Y_{(1)} - \theta)} I_{[\theta \leq Y_{(1)}]}\),
  • \(h(Y_1, Y_2, \ldots, Y_n) = 1\) (no depende de \(\theta\)).

Dado que la función de verosimilitud se ha factorizado de esta forma, podemos concluir que \(Y_{(1)}\) es un estadístico suficiente para \(\theta\).

Hemos demostrado que \(Y_{(1)} = \min(Y_1, Y_2, \ldots, Y_n)\) es un estadístico suficiente para el parámetro \(\theta\) utilizando el teorema de factorización de Neyman-Fisher. La función de verosimilitud se puede factorizar en una parte que depende de \(\theta\) y de \(Y_{(1)}\), lo que demuestra que \(Y_{(1)}\) contiene toda la información necesaria sobre \(\theta\).

\[ \]

Ejercicio 9.74b del Libro

Sea \(Y_1, Y_2, \ldots, Y_n\) una muestra aleatoria de la función de densidad de probabilidad dada por:

\[ f(y | \theta) = \begin{cases} \left( \frac{2}{\theta^2} \right) (\theta - y), & 0 \leq y \leq \theta, \\ 0, & \text{en cualquier otro punto.} \end{cases} \]

  1. Encuentre un estimador para \(\theta\) usando el método de momentos (Resuelto en la Lista 2 de ejercicios)

  2. ¿Este estimador es un estadístico suficiente para \(\theta\)?

El estimador de momentos para \(\theta\):

\[ \hat{\theta}_{MM} = 3 \bar{Y} \]

Para determinar si este estimador es un estadístico suficiente para \(\theta\), debemos usar el teorema de factorización de Neyman-Fisher, que establece que un estadístico es suficiente si la función de verosimilitud se puede factorizar en una forma particular.

Primero, obtenemos la función de verosimilitud. La función de densidad conjunta para \(n\) observaciones independientes \(Y_1, Y_2, \ldots, Y_n\) es:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = \prod_{i=1}^{n} f(y_i | \theta) \]

Sustituyendo la función de densidad \(f(y_i | \theta)\):

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = \prod_{i=1}^{n} \left( \frac{2}{\theta^2} \right) (\theta - y_i) \]

Simplificamos la expresión:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = \left( \frac{2}{\theta^2} \right)^n \prod_{i=1}^{n} (\theta - y_i) \]

Es evidente que esta función de verosimilitud no puede factorizarse de una manera que dependa únicamente de \(\bar{Y}\). En otras palabras, no existe una factorización del tipo:

\[ L(\theta | Y_1, Y_2, \ldots, Y_n) = g(\bar{Y}, \theta) h(Y_1, Y_2, \ldots, Y_n) \]

Por lo tanto, el estimador \(\hat{\theta}_{MM} = 3 \bar{Y}\) no es un estadístico suficiente para \(\theta\).

Resumen:

  • Parte a: Usando el método de momentos, encontramos que el estimador de \(\theta\) es:

\[ \hat{\theta}_{MM} = 3 \bar{Y} \]

  • Parte b: El estimador de momentos \(\hat{\theta}_{MM}\) no es un estadístico suficiente para \(\theta\), ya que la función de verosimilitud no se puede factorizar en una forma que dependa solo de \(\bar{Y}\).