1. La siguiente tabla muestra el número de accidentes mortales por año asociados con aerolíneas en todo el mundo durante un período de diez años (Fuente: Statistical Abstract of the United States). Suponga que el número de accidentes mortales en cada año son condicionalmente independientes y siguen una distribución Poisson con parámetro \(\theta\). Establezca una distribución previa para \(\theta\) y determine la distribución posterior con base en los datos de 1976 a 1985. Bajo este modelo, calcule un intervalo predictivo al 95% para el número de accidentes fatales en 1986.
Año 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985
Accidentes 24 25 31 31 22 21 26 20 16 22
  1. Un laboratorio está estimando la tasa de tumorigenesis en dos cepas de ratones, A y B. Los ratones tipo A han sido bien estudiados e información de otros laboratorios sugiere que los ratones tipo A tienen conteos de tumores que siguen una distribución de Poisson con media \(\theta_A = 12\). Se desconoce la tasa promedio de los tumores para los ratones tipo B, \(\theta_B\), pero existe suficiente evidencia empírica para asegurar que los ratones tipo B están relacionados con los ratones tipo A. Los conteos de tumores observados para las dos cepas de ratones son \(\boldsymbol{y}_A = (12, 9, 12, 14, 13, 13, 15, 8, 15, 6)\) y \(\boldsymbol{y}_B = (11, 11, 10, 9, 9, 8, 7, 10, 6, 8, 8, 9, 7)\).

    1. Encuentre las distribuciones posteriores, las medias posteriores, las desviaciones estándar posteriores y los intervalos de credibilidad del 95% para \(\theta_A\) y \(\theta_B\), asumiendo modelos Gamma-Poisson independientes para cada grupo, con distribuciones previas \(\theta_A\sim\textsf{Gamma}(120,10)\) y \(\theta_B\sim\textsf{Gamma}(12,1)\). ¿Por qué estas distribuciones previas son razonables?

    2. Calcule y grafique la media posterior de \(\theta_B\) bajo la distribución previa \(\theta_B\sim \textsf{Gamma}(12m,m)\), para cada valor de \(m\in\{1, 2,\ldots,50\}\). Describa qué tipo de información previa sobre \(\theta_B\) sería necesaria para que la media posterior de \(\theta_B\) sea cercana a la de \(\theta_A\).

  2. Muestre que bajo el modelo Gamma-Poisson \(y_i\mid\theta\stackrel{\text{iid}}{\sim}\textsf{Poisson}(\theta)\), para \(i = 1,\ldots,n\), con \(\theta \sim \textsf{Gamma}(a,b)\), se tiene que la distribución predictiva posterior es Binomial Negativa con parámetros \(a+s\) y \(b+n\), donde \(s=\sum_{i=1}^n y_i\).

  3. Considere el modelo Gamma-Poisson \(y_i\mid\theta\stackrel{\text{iid}}{\sim}\textsf{Poisson}(\theta)\), para \(i = 1,\ldots,n\), con \(\theta \sim \textsf{Gamma}(\alpha,\beta)\), y la función de perdida cuadrática \(L(\theta,\theta^*)=(\theta-\theta^*)^2\).

    1. Muestre que el estimador que minimiza la perdida esperada posterior es de la forma \(\hat\theta = a + b\,\bar{y}\), donde \(a > 0\), \(b \in (0, 1)\) y \(\bar{y}=\frac{1}{n}\sum_{i=1}^n y_i\).
    2. Calcule el riesgo frecuentista tanto de \(\hat\theta\) como del estimador de máxima verosimilitud.
    3. Calcule el riesgo Bayesiano de \(\hat\theta\).
    4. Suponga que un investigador quiere recolectar una muestra lo suficientemente grande para que el riesgo Bayesiano después del experimento sea la mitad del riesgo Bayesiano antes del experimento. Encuentre ese tamaño de muestra.
  4. Considere el modelo Beta-Binomial \(x\mid\theta\sim \textsf{Bin}(n,\theta)\) con \(\theta\sim \textsf{Beta}(\sqrt{n}/2,\sqrt{n}/2)\), donde \(n\) es conocido.

    1. ¿Cuál es la distribución posterior?
    2. ¿Cuál es el estimador que minimiza la perdida esperada posterior si la función de perdida es \(L(\theta,\hat\theta)=(\theta-\hat\theta)^2\)? Llame tal estimador \(\hat{\theta}\) y muestre que el riesgo frecuentista correspondiente es constante.
    3. Sea \(\theta_0=x/n\). Encuentre el riesgo frecuentista de este estimador. Compare los riesgos de \(\hat{\theta}\) y \(\theta_0\), para \(n=10,50,100\). ¿Qué se puede concluir?
  5. Sea \(x\sim \textsf{Bin}(n,\theta)\) con \(n\) conocido, y \(\theta \sim \textsf{Beta}(\alpha,\beta)\). Considere la función de perdida \(L(\theta,\hat\theta)=(\theta-\hat\theta)/(\theta(1-\theta))\). Encuentre el estimador que minimiza la perdida esperada posterior para esta función de perdida.

  6. Sea \(L(\theta,\hat\theta) = \omega(\theta)(\theta - \hat\theta)^2\) la función de perdida cuadrática ponderada, donde \(\omega(\theta)\) es una función no negativa. Muestre que el estimador que minimiza la perdida esperada posterior tiene la forma \[ \hat\theta=\frac{\textsf{E}(\omega(\theta)\,\theta\mid \boldsymbol{y})}{\textsf{E}(\omega(\theta)\mid \boldsymbol{y})}\,. \]

  7. Un investigador del Departamento de Ingeniería Electrónica y Eléctrica de la Universidad de Bath (Inglaterra) necesitaba analizar unos datos sobre los tiempos de falla de un determinado tipo de alambre de metal (en este problema el tiempo de falla se define como el número de veces que una máquina podría tensionar el alambre antes de romperse). Los siguientes datos corresponden a \(n = 14\) tiempos de falla de una parte del experimento: \[ \boldsymbol{y} = (495,541,1461,1555,1603,2201,2750,3468,3516,4319,6622,7728,13159,21194)\,. \] El modelo más simple para los datos del tiempo de falla involucra la distribución Exponencial, \(y_i \mid \lambda \stackrel{\text{iid}}{\sim} \textsf{Exponencial} ( \lambda )\), con \(\textsf{E}(y_i \mid \lambda) = \lambda\), para \(i=1,\ldots,n\).

    1. Sea \(X \sim \textsf{Gamma} (\alpha, \beta)\), con \(\alpha > 0\) y \(\beta > 0\). Encuentre la función de densidad de probabilidad de \(Y=\frac{ 1 }{ X }\). La distribución de \(Y\) se denomina distribución Gamma Inversa con parámetros \(\alpha\) y \(\beta\), lo que se denota con \(Y\sim\textsf{GI} (\alpha,\beta)\).

    2. Encuentre la distribución posterior de \(\lambda\), asumiendo que \(\lambda\sim\textsf{GI}(a,b)\), con \(a > 0\) y \(b > 0\).

    3. Muestre que la media posterior de \(\lambda\) es un promedio ponderado de la media previa \(\textsf{E}(\lambda)\) y la media muestral \(\bar{y}=\frac{1}{n}\sum_{i=1}^n y_i\).

    4. Se tiene información externa de otro experimento de acuerdo con el cual la distribución previa de \(\lambda\) debería tener una media \(\mu_0 = 4500\) y una desviación estándar \(\sigma_0 = 1800\). Grafique las distribuciones previa y posterior de \(\lambda\) en el mismo gráfico con \(\lambda\) en el eje horizontal tomando valores de 1000 a 12000, identificando qué curva corresponde a qué densidad.

    5. Muestre que el estimador de máxima verosimilitud (MLE, por sus siglas en inglés) de \(\lambda\) y la información observada de Fisher son respectivamente \[ \hat\lambda_{\text{MLE}} = \bar{y} \qquad\text{y}\qquad \hat{I}(\hat\lambda_{\text{MLE}}) = \frac{n}{\bar{y}^2}\,. \]

      Recuerde que la información observada de Fisher se define como \[ \hat{I}(\hat\lambda_{\text{MLE}}) = \left[ -\frac{\partial^2}{\partial\lambda^2}\log p(\boldsymbol{y}\mid\lambda) \right]_{\lambda = \hat\lambda_{\text{MLE}}}\,, \] donde \(p(\boldsymbol{y}\mid\lambda) = \prod_{i=1}^n p(y_i\mid\lambda)\) es la distribución muestral conjunta de \(\boldsymbol{y}\).

    6. Encuentre la estimación, el coeficiente de variación y un intervalo de de credibilidad/confianza al 95% para \(\lambda\), bajo el paradigma Bayesiano como Frecuentista (usando la Normalidad asintóica del MLE, Bootstrap paramétrico y Bootstrap no paramétrico).

      Recuerde que asintóticamente se tiene que \(\hat\lambda_{\text{MLE}}\sim\textsf{N}(\lambda,\hat{I}^{-1}(\hat\lambda_{\text{MLE}}))\).