Año | 1976 | 1977 | 1978 | 1979 | 1980 | 1981 | 1982 | 1983 | 1984 | 1985 |
---|---|---|---|---|---|---|---|---|---|---|
Accidentes | 24 | 25 | 31 | 31 | 22 | 21 | 26 | 20 | 16 | 22 |
Un laboratorio está estimando la tasa de tumorigenesis en dos cepas de ratones, A y B. Los ratones tipo A han sido bien estudiados e información de otros laboratorios sugiere que los ratones tipo A tienen conteos de tumores que siguen una distribución de Poisson con media \(\theta_A = 12\). Se desconoce la tasa promedio de los tumores para los ratones tipo B, \(\theta_B\), pero existe suficiente evidencia empírica para asegurar que los ratones tipo B están relacionados con los ratones tipo A. Los conteos de tumores observados para las dos cepas de ratones son \(\boldsymbol{y}_A = (12, 9, 12, 14, 13, 13, 15, 8, 15, 6)\) y \(\boldsymbol{y}_B = (11, 11, 10, 9, 9, 8, 7, 10, 6, 8, 8, 9, 7)\).
Encuentre las distribuciones posteriores, las medias posteriores, las desviaciones estándar posteriores y los intervalos de credibilidad del 95% para \(\theta_A\) y \(\theta_B\), asumiendo modelos Gamma-Poisson independientes para cada grupo, con distribuciones previas \(\theta_A\sim\textsf{Gamma}(120,10)\) y \(\theta_B\sim\textsf{Gamma}(12,1)\). ¿Por qué estas distribuciones previas son razonables?
Calcule y grafique la media posterior de \(\theta_B\) bajo la distribución previa \(\theta_B\sim \textsf{Gamma}(12m,m)\), para cada valor de \(m\in\{1, 2,\ldots,50\}\). Describa qué tipo de información previa sobre \(\theta_B\) sería necesaria para que la media posterior de \(\theta_B\) sea cercana a la de \(\theta_A\).
Muestre que bajo el modelo Gamma-Poisson \(y_i\mid\theta\stackrel{\text{iid}}{\sim}\textsf{Poisson}(\theta)\), para \(i = 1,\ldots,n\), con \(\theta \sim \textsf{Gamma}(a,b)\), se tiene que la distribución predictiva posterior es Binomial Negativa con parámetros \(a+s\) y \(b+n\), donde \(s=\sum_{i=1}^n y_i\).
Considere el modelo Gamma-Poisson \(y_i\mid\theta\stackrel{\text{iid}}{\sim}\textsf{Poisson}(\theta)\), para \(i = 1,\ldots,n\), con \(\theta \sim \textsf{Gamma}(\alpha,\beta)\), y la función de perdida cuadrática \(L(\theta,\theta^*)=(\theta-\theta^*)^2\).
Considere el modelo Beta-Binomial \(x\mid\theta\sim \textsf{Bin}(n,\theta)\) con \(\theta\sim \textsf{Beta}(\sqrt{n}/2,\sqrt{n}/2)\), donde \(n\) es conocido.
Sea \(x\sim \textsf{Bin}(n,\theta)\) con \(n\) conocido, y \(\theta \sim \textsf{Beta}(\alpha,\beta)\). Considere la función de perdida \(L(\theta,\hat\theta)=(\theta-\hat\theta)/(\theta(1-\theta))\). Encuentre el estimador que minimiza la perdida esperada posterior para esta función de perdida.
Sea \(L(\theta,\hat\theta) = \omega(\theta)(\theta - \hat\theta)^2\) la función de perdida cuadrática ponderada, donde \(\omega(\theta)\) es una función no negativa. Muestre que el estimador que minimiza la perdida esperada posterior tiene la forma \[ \hat\theta=\frac{\textsf{E}(\omega(\theta)\,\theta\mid \boldsymbol{y})}{\textsf{E}(\omega(\theta)\mid \boldsymbol{y})}\,. \]
Un investigador del Departamento de Ingeniería Electrónica y Eléctrica de la Universidad de Bath (Inglaterra) necesitaba analizar unos datos sobre los tiempos de falla de un determinado tipo de alambre de metal (en este problema el tiempo de falla se define como el número de veces que una máquina podría tensionar el alambre antes de romperse). Los siguientes datos corresponden a \(n = 14\) tiempos de falla de una parte del experimento: \[ \boldsymbol{y} = (495,541,1461,1555,1603,2201,2750,3468,3516,4319,6622,7728,13159,21194)\,. \] El modelo más simple para los datos del tiempo de falla involucra la distribución Exponencial, \(y_i \mid \lambda \stackrel{\text{iid}}{\sim} \textsf{Exponencial} ( \lambda )\), con \(\textsf{E}(y_i \mid \lambda) = \lambda\), para \(i=1,\ldots,n\).
Sea \(X \sim \textsf{Gamma} (\alpha, \beta)\), con \(\alpha > 0\) y \(\beta > 0\). Encuentre la función de densidad de probabilidad de \(Y=\frac{ 1 }{ X }\). La distribución de \(Y\) se denomina distribución Gamma Inversa con parámetros \(\alpha\) y \(\beta\), lo que se denota con \(Y\sim\textsf{GI} (\alpha,\beta)\).
Encuentre la distribución posterior de \(\lambda\), asumiendo que \(\lambda\sim\textsf{GI}(a,b)\), con \(a > 0\) y \(b > 0\).
Muestre que la media posterior de \(\lambda\) es un promedio ponderado de la media previa \(\textsf{E}(\lambda)\) y la media muestral \(\bar{y}=\frac{1}{n}\sum_{i=1}^n y_i\).
Se tiene información externa de otro experimento de acuerdo con el cual la distribución previa de \(\lambda\) debería tener una media \(\mu_0 = 4500\) y una desviación estándar \(\sigma_0 = 1800\). Grafique las distribuciones previa y posterior de \(\lambda\) en el mismo gráfico con \(\lambda\) en el eje horizontal tomando valores de 1000 a 12000, identificando qué curva corresponde a qué densidad.
Muestre que el estimador de máxima verosimilitud (MLE, por sus siglas en inglés) de \(\lambda\) y la información observada de Fisher son respectivamente \[ \hat\lambda_{\text{MLE}} = \bar{y} \qquad\text{y}\qquad \hat{I}(\hat\lambda_{\text{MLE}}) = \frac{n}{\bar{y}^2}\,. \]
Recuerde que la información observada de Fisher se define como \[ \hat{I}(\hat\lambda_{\text{MLE}}) = \left[ -\frac{\partial^2}{\partial\lambda^2}\log p(\boldsymbol{y}\mid\lambda) \right]_{\lambda = \hat\lambda_{\text{MLE}}}\,, \] donde \(p(\boldsymbol{y}\mid\lambda) = \prod_{i=1}^n p(y_i\mid\lambda)\) es la distribución muestral conjunta de \(\boldsymbol{y}\).
Encuentre la estimación, el coeficiente de variación y un intervalo de de credibilidad/confianza al 95% para \(\lambda\), bajo el paradigma Bayesiano como Frecuentista (usando la Normalidad asintóica del MLE, Bootstrap paramétrico y Bootstrap no paramétrico).
Recuerde que asintóticamente se tiene que \(\hat\lambda_{\text{MLE}}\sim\textsf{N}(\lambda,\hat{I}^{-1}(\hat\lambda_{\text{MLE}}))\).