Ejercicio 1

Primero, calculamos la esperanza matemática (o valor esperado) de la variable aleatoria \(Y\) dado el parámetro \(\theta\).

La función de masa de probabilidad está dada por:

\[ f_Y(y|\theta) = \begin{cases} \frac{\theta}{2} & \text{si } y = -1 \text{ o } y = 1 \\ 1 - \theta & \text{si } y = 0 \\ 0 & \text{en otro caso} \end{cases} \]

El valor esperado de \(Y\) se calcula como:

\[ E[Y] = \sum_{y} y \cdot P(Y = y) \]

Dado que \(Y\) puede tomar los valores \(-1\), \(0\) y \(1\), tenemos:

\[ E[Y] = (-1) \cdot P(Y = -1) + 0 \cdot P(Y = 0) + 1 \cdot P(Y = 1) \]

Substituyendo los valores de probabilidad dados en la función de masa de probabilidad:

\[ E[Y] = (-1) \cdot \frac{\theta}{2} + 0 \cdot (1 - \theta) + 1 \cdot \frac{\theta}{2} \]

Simplificando, obtenemos:

\[ E[Y] = -\frac{\theta}{2} + \frac{\theta}{2} = 0 \]

El primer momento muestral, basado en la muestra \(Y_1, Y_2, \dots, Y_n\), se define como:

\[ \bar{Y} = \frac{1}{n} \sum_{i=1}^{n} Y_i \]

Dado que \(E[Y] = 0\), el momento poblacional esperado también es 0. Por lo tanto, el estimador de \(\theta\) por el método de los momentos debe satisfacer la ecuación:

\[ \bar{Y} = 0 \]

En este caso, dado que \(E[Y] = 0\), el primer momento no provee información para estimar \(\theta\).

Hay que utilizar el segundo momento.

El segundo momento de la variable aleatoria \(Y\) se calcula como:

\[ E[Y^2] = \sum_{y} y^2 \cdot P(Y = y) \]

Dado que \(Y\) puede tomar los valores \(-1\), \(0\), y \(1\), tenemos:

\[ E[Y^2] = (-1)^2 \cdot P(Y = -1) + 0^2 \cdot P(Y = 0) + 1^2 \cdot P(Y = 1) \]

Substituyendo las probabilidades:

\[ E[Y^2] = 1 \cdot \frac{\theta}{2} + 0 \cdot (1 - \theta) + 1 \cdot \frac{\theta}{2} \]

Simplificando, obtenemos:

\[ E[Y^2] = \frac{\theta}{2} + \frac{\theta}{2} = \theta \]

El segundo momento muestral es:

\[ \frac{1}{n} \sum_{i=1}^{n} Y_i^2 \]

Igualando el momento poblacional al muestral:

\[ \theta = \frac{1}{n} \sum_{i=1}^{n} Y_i^2 \]

Por lo tanto, el estimador de \(\theta\) es:

\[ \hat{\theta}_{MM} = \frac{1}{n} \sum_{i=1}^{n} Y_i^2 \]

  1. Esperanza del estimador:

    \[ E(\hat{\theta}_{MM}) = \theta \]

    Esto indica que el estimador es insesgado.

  2. Varianza del estimador:

Ahora calculamos la varianza del estimador \(\hat{\theta}_{MM}\). Sabemos que \(\hat{\theta}_{MM}\) es la media muestral de \(Y_i^2\), por lo que su varianza es:

\[ \text{Var}(\hat{\theta}_{MM}) = \text{Var} \left( \frac{1}{n} \sum_{i=1}^{n} Y_i^2= \right)=\frac{1}{n^2} \cdot n\cdot\text{Var}(Y^2)=\frac{1}{n} \text{Var}(Y^2) \]

Vamos a usar la siguiente definición de \(\text{Var}(Y^2)\) para hacer el cálculo anterior: \[ \boxed{\text{Var}(Y^2) = E(Y^4) - [E(Y^2)]^2} \]

En la parte anterior del ejercicio ya calculamos \(E(Y^2) = \theta\), pero ahora necesitamos \(E(Y^4)\) para poder calcular \(\text{Var}(Y^2)\):

El cuarto momento de \(Y\) es:

\[ E(Y^4) = \sum_{y} y^4 \cdot P(Y = y) \]

Sustituyendo los valores de \(y\):

\[ E(Y^4) = (-1)^4 \cdot P(Y = -1) + 0^4 \cdot P(Y = 0) + 1^4 \cdot P(Y = 1) \]

\[ E(Y^4) = 1 \cdot \frac{\theta}{2} + 0 \cdot (1 - \theta) + 1 \cdot \frac{\theta}{2} \]

\[ E(Y^4) = \frac{\theta}{2} + \frac{\theta}{2} = \theta \]

Ya que \(E(Y^4) = \theta\) y \(E(Y^2) = \theta\), la varianza de \(Y^2\) es:

\[ \text{Var}(Y^2) =E(Y^4) - [E(Y^2)]^2= \theta - \theta^2 \]

Finalmente, la varianza del estimador \(\hat{\theta}_{MM}\) es:

\[ \boxed{\text{Var}(\hat{\theta}_{MM}) = \frac{1}{n} \text{Var}(Y^2)=\frac{1}{n} (\theta - \theta^2)} \]

Ejercicio 2

Dado que \(Y \sim \text{Gamma}(3, \beta)\), sabemos que la distribución gamma tiene los siguientes momentos:

  • Esperanza:

    \[ E[Y] = \alpha \beta = 3\beta \]

  • Varianza:

    \[ \text{Var}(Y) = \alpha \beta^2 = 3\beta^2 \]

Aquí \(\alpha = 3\) es el parámetro de forma, y \(\beta\) es el parámetro de escala que estamos estimando.

El método de los momentos iguala el momento poblacional al momento muestral. El momento muestral de primer orden (media muestral) es:

\[ \bar{Y} = \frac{1}{n} \sum_{i=1}^{n} Y_i \]

Igualando la media poblacional con la media muestral:

\[ E[Y] = \bar{Y} = 3\beta \]

Despejando \(\beta\):

\[ \hat{\beta}_{MM} = \frac{\bar{Y}}{3} \]

El estimador de máxima verosimilitud (MV) se obtiene maximizando la función de verosimilitud con respecto a \(\beta\). Para una distribución gamma con parámetros \(\alpha = 3\) y \(\beta\), la función de verosimilitud es:

\[ L(\beta) = \prod_{i=1}^{n} \frac{1}{\Gamma(3)\beta^3} Y_i^2 e^{-Y_i/\beta} \]

Tomamos el logaritmo de la función de verosimilitud para simplificar el proceso de maximización:

\[ \log L(\beta) = -3n \log \beta - \frac{1}{\beta} \sum_{i=1}^{n} Y_i + \text{constante} \]

Para maximizar esta función, derivamos con respecto a \(\beta\) y igualamos a cero:

\[ \frac{\partial \log L(\beta)}{\partial \beta} = -\frac{3n}{\beta} + \frac{1}{\beta^2} \sum_{i=1}^{n} Y_i = 0 \]

Despejando \(\beta\):

\[ \hat{\beta}_{MV} = \frac{\sum_{i=1}^{n} Y_i}{3n} = \frac{\bar{Y}}{3} \]

El estimador de \(\beta\) es el mismo tanto por el método de los momentos como por el método de máxima verosimilitud:

\[ \hat{\beta}_{MM} = \hat{\beta}_{MV} = \frac{\bar{Y}}{3} \]

Las propiedades de este estimador son:

  • Esperanza:

    \[ E\left(\frac{\bar{Y}}{3}\right) = \beta \]

  • Varianza:

    \[ V\left(\frac{\bar{Y}}{3}\right) = \frac{\beta^2}{3n} \]

Esto confirma que el estimador es insesgado y su varianza disminuye con el tamaño de la muestra \(n\).

Ejercicio 3

La función de densidad de probabilidad está dada por:

\[ f_Y(y|\theta) = \frac{1}{\theta y^2} \exp\left(-\frac{1}{\theta y}\right) I_{[y \geq 0]} \]

Para una muestra aleatoria \(Y_1, Y_2, \dots, Y_n\), la función de verosimilitud \(L(\theta)\) es:

\[ L(\theta) = \prod_{i=1}^{n} f_Y(y_i|\theta) = \prod_{i=1}^{n} \left(\frac{1}{\theta y_i^2} \exp\left(-\frac{1}{\theta y_i}\right)\right) \]

Simplificamos la expresión de la función de verosimilitud:

\[ L(\theta) = \frac{1}{\theta^n} \prod_{i=1}^{n} \frac{1}{y_i^2} \exp\left(-\sum_{i=1}^{n} \frac{1}{\theta y_i}\right) \]

Tomamos el logaritmo de la función de verosimilitud para simplificar la maximización:

\[ \log L(\theta) = -n \log \theta - 2 \sum_{i=1}^{n} \log y_i - \frac{1}{\theta} \sum_{i=1}^{n} \frac{1}{y_i} \]

Los términos independientes de \(\theta\) pueden ser ignorados en la maximización, así que nos centramos en:

\[ \log L(\theta) = -n \log \theta - \frac{1}{\theta} \sum_{i=1}^{n} \frac{1}{y_i} \]

Derivamos \(\log L(\theta)\) con respecto a \(\theta\) y la igualamos a cero para encontrar el estimador de máxima verosimilitud:

\[ \frac{d}{d\theta} \log L(\theta) = -\frac{n}{\theta} + \frac{1}{\theta^2} \sum_{i=1}^{n} \frac{1}{y_i} = 0 \]

Multiplicamos toda la ecuación por \(\theta^2\) para despejar más fácilmente:

\[ -n\theta + \sum_{i=1}^{n} \frac{1}{y_i} = 0 \]

De aquí despejamos \(\theta\):

\[ \hat{\theta}_{MV} = \frac{1}{n} \sum_{i=1}^{n} \frac{1}{y_i} \]

El estimador de máxima verosimilitud para \(\theta\) es:

\[ \hat{\theta}_{MV} = \bar{X} \]

Donde \(X_i = \frac{1}{Y_i}\).

  1. Esperanza del Estimador:

    \[ E(\hat{\theta}_{MV}) = \theta \]

    Esto muestra que el estimador es insesgado.

  2. Varianza del Estimador:

    \[ \text{Var}(\hat{\theta}_{MV}) = \frac{\theta^2}{n} \]

    Esta es la varianza del estimador de máxima verosimilitud.

El estimador \(\hat{\theta}_{MV} = \bar{X}\) es un estimador insesgado y su varianza disminuye con el tamaño de la muestra, como se esperaba. La derivación de la distribución de \(X = g(Y) = \frac{1}{Y}\) puede ser útil para verificar estas propiedades del estimador, pero ya hemos demostrado que el estimador cumple con las propiedades deseadas.

Ejercicio 4

Vamos a resolver el ejercicio 4 utilizando tanto el método de los momentos como el método de máxima verosimilitud para estimar el parámetro \(\theta\) de una distribución Pareto con parámetro de forma 4 y parámetro de escala \(\theta\).

Para una variable aleatoria \(Y\) que sigue una distribución Pareto con parámetros \(\theta\) y \(4\), la esperanza de \(Y\) es:

\[ E[Y] = \frac{4\theta}{4 - 1} = \frac{4\theta}{3} \]

El primer momento muestral es:

\[ \bar{Y} = \frac{1}{n} \sum_{i=1}^{n} Y_i \]

Igualamos el momento poblacional con el momento muestral:

\[ \frac{4\theta}{3} = \bar{Y} \]

Despejando \(\theta\):

\[ \hat{\theta}_{MM} = \frac{3\bar{Y}}{4} \]

  1. Esperanza: \[ E(\hat{\theta}_{MM}) = \theta \] Esto indica que el estimador es insesgado.

  2. Varianza: \[ V(\hat{\theta}_{MM}) = V(\frac{3\bar{Y}}{4})=(\frac{3}{4})^2 V(\bar{Y})=\frac{9}{16}V(\bar{Y})= \frac{9}{16}\frac{V(Y)}{n} = \frac{\theta^2}{8n} \]

Con la siguiente varianza (de una distribución Pareto) \[ V(Y) = \frac{\theta^2}{9} \]

La función de densidad está dada por:

\[ f_Y(y|\theta) = \frac{4\theta^4}{y^5} I_{[y \geq \theta]} \]

La función de verosimilitud \(L(\theta)\) para una muestra aleatoria \(Y_1, Y_2, \dots, Y_n\) es:

\[ L(\theta) = \prod_{i=1}^{n} f_Y(y_i|\theta) = 4^n \theta^{4n} \prod_{i=1}^{n} \frac{1}{y_i^5} I_{[y_i \geq \theta]} \]

La función de verosimilitud es máxima cuando \(\theta\) es igual al valor mínimo de la muestra, ya que \(\theta \leq Y_{(1)}\) para que la función de verosimilitud no sea cero.

Por lo tanto, el estimador de máxima verosimilitud es:

\[ \hat{\theta}_{MV} = Y_{(1)} \]

  1. Esperanza: \[ E(\hat{\theta}_{MV}) = \frac{4n}{4n - 1} \theta \] Este estimador no es insesgado, pero su sesgo disminuye con \(n\).

  2. Varianza: \[ V(\hat{\theta}_{MV}) = \frac{4n\theta^2}{(4n - 1)^2(4n - 2)} \]

  3. Error Cuadrático Medio (ECM): \[ ECM(\hat{\theta}_{MV}) = \frac{2\theta^2}{(4n - 1)(4n - 2)} \]

    Como se observa, el ECM del estimador de máxima verosimilitud es menor que el ECM del estimador de momentos, lo que sugiere que el estimador de máxima verosimilitud es más eficiente.

  • El estimador de los momentos para \(\theta\) es \(\hat{\theta}_{MM} = \frac{3\bar{Y}}{4}\), el cual es insesgado con varianza \(\frac{\theta^2}{8n}\).
  • El estimador de máxima verosimilitud es \(\hat{\theta}_{MV} = Y_{(1)}\), que no es insesgado pero es más eficiente, ya que tiene un menor ECM.

El análisis muestra que, aunque ambos estimadores son útiles, el estimador de máxima verosimilitud puede ser preferido debido a su menor ECM.

Ejercicio 9.71 del Libro

Si \(Y_1, Y_2, \dots, Y_n\) denotan una muestra aleatoria de la distribución normal con media conocida \(\mu = 0\) y varianza desconocida \(\sigma^2\), encuentre el estimador de \(\sigma^2\) por el método de momentos.

Solución:

Dado que \(Y \sim N(0, \sigma^2)\), conocemos las siguientes propiedades:

  • Media: \(E[Y] = 0\)
  • Varianza: \(\text{Var}(Y) = E[Y^2] - (E[Y])^2 = E[Y^2] = \sigma^2\)

En este caso, el segundo momento poblacional alrededor del origen es \(E[Y^2] = \sigma^2\).

El segundo momento muestral, que es la media de los cuadrados de las observaciones, se calcula como:

\[ m_2' = \frac{1}{n} \sum_{i=1}^{n} Y_i^2 \]

Igualamos el segundo momento poblacional con el segundo momento muestral:

\[ \sigma^2 = \frac{1}{n} \sum_{i=1}^{n} Y_i^2 \]

Por lo tanto, el estimador por el método de los momentos para \(\sigma^2\) es:

\[ \hat{\sigma}^2 = \frac{1}{n} \sum_{i=1}^{n} Y_i^2 \]

El estimador de \(\sigma^2\) utilizando el método de los momentos es simplemente la media de los cuadrados de las observaciones, lo cual es intuitivo dado que estamos utilizando la varianza muestral como estimador de la varianza poblacional. Este estimador es insesgado, dado que \(E[Y] = 0\) es conocido.

Ejercicio 9.74a del Libro

Sea \(Y_1, Y_2, \dots, Y_n\) una muestra aleatoria de la función de densidad de probabilidad dada por:

\[ f(y|\theta) = \begin{cases} \left(\frac{2}{\theta^2}\right)(\theta - y), & 0 \leq y \leq \theta, \\ 0, & \text{en cualquier otro punto}. \end{cases} \]

a) Encuentre un estimador para \(\theta\) usando el método de momentos.

Primero, calculamos el primer momento poblacional, que es la esperanza de \(Y\):

\[ \mu_1' = E[Y] = \int_0^\theta y \cdot \frac{2}{\theta^2} (\theta - y) \, dy \]

Expandiendo y resolviendo la integral:

\[ E[Y] = \frac{2}{\theta^2} \int_0^\theta y (\theta - y) \, dy \]

\[ = \frac{2}{\theta^2} \left[ \int_0^\theta \theta y \, dy - \int_0^\theta y^2 \, dy \right] \]

Calculamos cada integral:

\[ \int_0^\theta \theta y \, dy = \frac{\theta y^2}{2} \Bigg|_0^\theta = \frac{\theta^3}{2} \]

\[ \int_0^\theta y^2 \, dy = \frac{y^3}{3} \Bigg|_0^\theta = \frac{\theta^3}{3} \]

Entonces:

\[ E[Y] = \frac{2}{\theta^2} \left( \frac{\theta^3}{2} - \frac{\theta^3}{3} \right) \]

\[ = \frac{2}{\theta^2} \left( \frac{3\theta^3 - 2\theta^3}{6} \right) = \frac{2 \times \theta^3}{6\theta^2} = \frac{\theta}{3} \]

El primer momento muestral es:

\[ \bar{Y} = \frac{1}{n} \sum_{i=1}^{n} Y_i \]

Igualamos el primer momento poblacional con el muestral:

\[ \frac{\theta}{3} = \bar{Y} \]

Despejamos \(\theta\):

\[ \hat{\theta} = 3\bar{Y} \]

El estimador de \(\theta\) utilizando el método de los momentos es:

\[ \hat{\theta} = 3\bar{Y} \]

Ejercicio 9.77 del Libro

Sean \(Y_1, Y_2, \dots, Y_n\) variables aleatorias uniformes independientes y distribuidas idénticamente en el intervalo \((0, 3\theta)\). Deduzca el estimador del método de momentos para \(\theta\).

Solución:

Para una variable aleatoria \(Y\) uniformemente distribuida en el intervalo \((0, 3\theta)\), la esperanza de \(Y\) es:

\[ E[Y] = \frac{0 + 3\theta}{2} = \frac{3\theta}{2} \]

El primer momento muestral es:

\[ \bar{Y} = \frac{1}{n} \sum_{i=1}^{n} Y_i \]

Igualamos el primer momento poblacional con el momento muestral:

\[ \frac{3\theta}{2} = \bar{Y} \]

Despejamos \(\theta\):

\[ \hat{\theta} = \frac{2}{3} \bar{Y} \]

El estimador de \(\theta\) utilizando el método de los momentos es:

\[ \hat{\theta} = \frac{2}{3} \bar{Y} \]

Ejercicio 9.78 del Libro

Sean \(Y_1, Y_2, \dots, Y_n\) variables aleatorias independientes y distribuidas idénticamente de una familia de distribución de potencias con parámetros \(\alpha\) y \(\theta = 3\). Entonces, como en el Ejercicio 9.43, si \(\alpha > 0\),

\[ f(y|\alpha) = \begin{cases} \alpha y^{\alpha-1}/3^\alpha, & 0 \leq y \leq 3, \\ 0, & \text{en cualquier otro punto}. \end{cases} \]

Demuestre que \(E(Y) = \frac{3\alpha}{\alpha + 1}\) y deduzca el estimador del método de momentos para \(\alpha\).

Para calcular \(E(Y)\), usamos la definición de esperanza para una variable continua:

\[ E(Y) = \int_0^3 y \cdot f(y|\alpha) \, dy \]

Sustituyendo la función de densidad \(f(y|\alpha)\):

\[ E(Y) = \int_0^3 y \cdot \left(\frac{\alpha y^{\alpha - 1}}{3^\alpha}\right) \, dy \]

\[ E(Y) = \frac{\alpha}{3^\alpha} \int_0^3 y^\alpha \, dy \]

Resolvemos la integral:

\[ \int_0^3 y^\alpha \, dy = \left[\frac{y^{\alpha + 1}}{\alpha + 1}\right]_0^3 = \frac{3^{\alpha + 1}}{\alpha + 1} \]

Por lo tanto:

\[ E(Y) = \frac{\alpha}{3^\alpha} \cdot \frac{3^{\alpha + 1}}{\alpha + 1} = \frac{3\alpha}{\alpha + 1} \]

El primer momento muestral es:

\[ \bar{Y} = \frac{1}{n} \sum_{i=1}^{n} Y_i \]

Igualamos el valor esperado con el primer momento muestral:

\[ \frac{3\alpha}{\alpha + 1} = \bar{Y} \]

Despejamos \(\alpha\):

\[ \hat{\alpha} = \frac{\bar{Y}}{3 - \bar{Y}} \]

El estimador de \(\alpha\) utilizando el método de los momentos es:

\[ \hat{\alpha} = \frac{\bar{Y}}{3 - \bar{Y}} \]

Ejercicio 9.80 del Libro

Suponga que \(Y_1, Y_2, \dots, Y_n\) denotan una muestra aleatoria de la distribución de Poisson con media \(\lambda\).

a) Encuentre el MLE \(\hat{\lambda}\) para \(\lambda\).

Para una distribución de Poisson, la función de verosimilitud \(L(\lambda)\) para una muestra \(Y_1, Y_2, \dots, Y_n\) es:

\[ L(\lambda) = \prod_{i=1}^{n} \frac{\lambda^{Y_i} e^{-\lambda}}{Y_i!} \]

Tomando el logaritmo de la función de verosimilitud:

\[ \log L(\lambda) = \sum_{i=1}^{n} \left(Y_i \log \lambda - \lambda - \log(Y_i!)\right) \]

Para maximizar la log-verosimilitud, derivamos con respecto a \(\lambda\) y la igualamos a cero:

\[ \frac{d}{d\lambda} \log L(\lambda) = \sum_{i=1}^{n} \frac{Y_i}{\lambda} - n = 0 \]

Despejando \(\lambda\):

\[ \hat{\lambda} = \frac{1}{n} \sum_{i=1}^{n} Y_i = \bar{Y} \]

Ejercicio 9.83 del Libro

Suponga que \(Y_1, Y_2, \dots, Y_n\) constituyen una muestra aleatoria de una distribución uniforme con función de densidad de probabilidad

\[ f(y|\theta) = \begin{cases} \frac{1}{2\theta + 1}, & 0 \leq y \leq 2\theta + 1, \\ 0, & \text{en cualquier otro punto}. \end{cases} \]

a) Obtenga el MLE de \(\theta\).
b) Obtenga el MLE para la varianza de la distribución subyacente.

Primero, consideramos la función de verosimilitud \(L(\theta)\) para la muestra dada:

\[ L(\theta) = \prod_{i=1}^{n} \frac{1}{2\theta + 1} = \left(\frac{1}{2\theta + 1}\right)^n \]

Tomando el logaritmo de la función de verosimilitud:

\[ \log L(\theta) = -n \log(2\theta + 1) \]

Para maximizar \(\log L(\theta)\), derivamos con respecto a \(\theta\) y lo igualamos a cero:

\[ \frac{d}{d\theta} \log L(\theta) = \frac{-n}{2\theta + 1} \cdot 2 = 0 \]

Esto nos indica que la verosimilitud es mayor cuanto menor sea \(\theta\), pero debemos asegurar que el valor máximo de \(Y\) en la muestra, \(Y_{(n)}\), esté contenido en el intervalo \([0, 2\theta + 1]\). Por lo tanto, la estimación de máxima verosimilitud de \(\theta\) es:

\[ \hat{\theta} = \frac{1}{2}(Y_{(n)} - 1) \]

Para una variable aleatoria \(Y\) que sigue la distribución uniforme en el intervalo \([0, 2\theta + 1]\), la varianza está dada por:

\[ V(Y) = \frac{(2\theta + 1)^2}{12} \]

Usando la propiedad de invariancia del MLE, si \(\hat{\theta}\) es el MLE de \(\theta\), entonces el MLE de \(V(Y)\) es:

\[ \widehat{V(Y)} = \frac{(Y_{(n)})^2}{12} \]

Ejercicio 9.88 del Libro

Sea \(Y_1, Y_2, \dots, Y_n\) una muestra aleatoria de la función de densidad de probabilidad

\[ f(y|\theta) = \begin{cases} (\theta + 1) y^\theta, & 0 < y < 1, \, \theta > -1, \\ 0, & \text{en cualquier otro punto}. \end{cases} \]

Encuentre el MLE para \(\theta\). Compare su respuesta con el estimador del método de momentos.

Primero, consideramos la función de verosimilitud \(L(\theta)\) para la muestra dada:

\[ L(\theta) = \prod_{i=1}^{n} (\theta + 1) y_i^\theta = (\theta + 1)^n \prod_{i=1}^{n} y_i^\theta \]

Tomamos el logaritmo de la función de verosimilitud:

\[ \log L(\theta) = n \log(\theta + 1) + \theta \sum_{i=1}^{n} \log y_i \]

Para encontrar el estimador de máxima verosimilitud, derivamos con respecto a \(\theta\) y lo igualamos a cero:

\[ \frac{d}{d\theta} \log L(\theta) = \frac{n}{\theta + 1} + \sum_{i=1}^{n} \log y_i = 0 \]

Despejando \(\theta\):

\[ \frac{n}{\theta + 1} = -\sum_{i=1}^{n} \log y_i \]

\[ \hat{\theta} = \frac{-n}{\sum_{i=1}^{n} \log y_i} - 1 \]

Ejercicio 9.97 del Libro

La función de masa de probabilidad geométrica está dada por:

\[ p(y|p) = p(1-p)^{y-1}, \quad y = 1, 2, 3, \dots \]

Una muestra aleatoria de tamaño \(n\) se toma de una población con una distribución geométrica.

a) Encuentre el estimador del método de momentos para \(p\).
b) Encuentre el estimador de máxima verosimilitud (MLE) para \(p\).

La media de la distribución geométrica es \(E[Y] = \frac{1}{p}\). El estimador del método de momentos iguala el momento poblacional con el momento muestral:

\[ \bar{Y} = \frac{1}{n} \sum_{i=1}^{n} Y_i \]

Igualando \(E[Y]\) con \(\bar{Y}\):

\[ \frac{1}{p} = \bar{Y} \]

Despejando \(p\):

\[ \hat{p}_{MM} = \frac{1}{\bar{Y}} \]

La función de verosimilitud para la distribución geométrica es:

\[ L(p) = \prod_{i=1}^{n} p(1-p)^{y_i - 1} = p^n (1-p)^{\sum_{i=1}^{n} y_i - n} \]

Tomando el logaritmo de la función de verosimilitud:

\[ \log L(p) = n \log p + \left(\sum_{i=1}^{n} y_i - n\right) \log(1-p) \]

Derivamos con respecto a \(p\) y lo igualamos a cero para maximizar:

\[ \frac{d}{dp} \log L(p) = \frac{n}{p} - \frac{\sum_{i=1}^{n} y_i - n}{1-p} = 0 \]

Resolviendo para \(p\):

\[ \frac{n(1-p)}{p} = \sum_{i=1}^{n} y_i - n \]

\[ \hat{p}_{MLE} = \frac{1}{\bar{Y}} \]

Tanto el estimador del método de momentos como el estimador de máxima verosimilitud para \(p\) son iguales y están dados por:

\[ \hat{p} = \frac{1}{\bar{Y}} \]

Implementación en R