Soluciones a los puntos del parcial

Punto 1:

Distribución de \(Y_i\) y \(Y={\sum}Y_i\) utilizando la técnica de la función generadora de momentos:

  1. Distribución de \(Y_i\)

La función generdora de momentos de \(Y_i\) es:

\[ M_{Y_i}(t) = e^{t\beta_1 x_i + 0.5 \sigma^2 t^2} \]

  1. Distribución de \(Y\):

La función generadora de momentos de \(Y\) es:

\[ M_Y(t) = e^{\sum_{i=1}^{n} (t\beta_1 x_i + 0.5 \sigma^2 t^2)} \]

Punto 2:

Estimación de parámetros para la distribución \(f_X(x|\theta)=\theta{e}^{(-\theta{x})}\mathbb{I}_{(0,\infty)}(x)\):

  1. Estimación de \(\frac{1}{\theta}\)

La media muestral \(\overline{X}\) se estima como \(\frac{1}{\theta}\)

  1. Estimador por el método de los momentos de \(\theta\):

El estimador de los momentos de \(\theta\) es:

\[ \widehat{\theta} = \frac{1}{\bar{X}} \]

  1. Estimador de Bayes para \(\theta\):

El estimador de Bayes para \(\theta\) es:

\[ \hat{\theta} = \frac{\alpha + n}{\beta + \sum_{i=1}^{n} x_i} \]

  1. Estimación puntual para \(\theta\) bajo máxima verosimilitud y bajo el enfoque bayesiano:

La estimación puntual bajo máxima verosimilitud es:

\[ \hat{\theta}_{ML} = \frac{n}{\sum_{i=1}^{n} x_i} \]

Y la estimación puntual bajo el enfoque bayesiano con \(\alpha=1\) y \(\beta=2\) es:

\[ \hat{\theta}_{Bayes} = \frac{\alpha + n}{\beta + \sum_{i=1}^{n} x_i} \]

Soluciones completas con pasos y detalles:

Punto 1

Distribución de \(Y_i\) y \(Y={\sum}Y_i\) utilizando la técnica de la función generadora de momentos:

\[ M_{Y_i}(t) = E[e^{tY_i}] \]

Luego, dado que \(Y_i=\beta_1x_i+\epsilon_i\), donde \(\epsilon_i\) sigue una distribución normal con media cero y varianza \(\sigma^2\), tenemos:

\[ M_{Y_i}(t) = E[e^{t(\beta_1 x_i + \epsilon_i)}] = E[e^{t\beta_1 x_i} \cdot e^{t\epsilon_i}] = e^{t\beta_1 x_i} \cdot E[e^{t\epsilon_i}] = e^{t\beta_1 x_i} \cdot e^{0.5 \sigma^2 t^2} = e^{t\beta_1 x_i + 0.5 \sigma^2 t^2} \]

Por lo tanto, la función generadora de momentos de \(Y_i\) es \(M_{Y_i}(t) = e^{t\beta_1 x_i + 0.5 \sigma^2 t^2}\) y esto corresponde a la FGM de una variable aleatoria normal; lo que indica que \(Y_i\) sigue una distribución normal, es decir, \(Y_i{\sim}N(\beta_1 x_i, \sigma^2)\).

  1. Distribución de \(Y\):

Utilizando la propiedad de la función generadora de momentos de la suma de variables aleatorias independientes, tenemos:

\[ M_Y(t) = \prod_{i=1}^{n} M_{Y_i}(t) = \prod_{i=1}^{n} e^{t\beta_1 x_i + 0.5 \sigma^2 t^2} = e^{ \sum_{i=1}^{n} (t\beta_1 x_i + 0.5 \sigma^2 t^2) } \]

Esto implica que \(Y\) sigue una distribución normal con media \(\mu=\beta_1\sum_{i=1}^{n}x_i\) y varianza \(\sigma^2n\).

Punto 2:

Estimación de parámetros para la distribución \(f_X(x|\theta)=\theta{e}^{(-\theta{x})}\mathbb{I}_{(0,\infty)}(x)\):

  1. Estimación de \(\frac{1}{\theta}\):

La media muestral \(\overline{X}\) se estima como \(\frac{1}{\theta}\)

  1. Estimador por el método de los momentos de \(\theta\):

Igualamos el primer momento muestral al primer momento teórico \(E[X]=\frac{1}{\theta}\) y despejamos \(\theta\), obteniendo:

\[ \widehat{\theta} = \frac{1}{\bar{X}} \]

  1. Estimador de Bayes para \(\theta\):

Calculamos la distribución a posteriori de \(\theta\) y obtenemos el estimador de Bayes utilizando la esperanza condicional.

\[ \hat{\theta} = \frac{\alpha + n}{\beta + \sum_{i=1}^{n} x_i} \]

  1. Estimación puntual para \(\theta\) bajo máxima verosimilitud y bajo el enfoque bayesiano:

La estimación puntual bajo máxima verosimilitud es:

\[ \begin{aligned} \hat{\theta}_{ML} & = \frac{n}{\sum_{i=1}^{n} x_i} \\ & = \frac{5}{0.23 + 0.07 + 0.98 + 0.61 + 0.75}\\ & = \frac{5}{2.64}\\ & = 1.8939394 \end{aligned} \]

Y la estimación puntual bajo el enfoque bayesiano con \(\alpha=1\) y \(\beta=2\) es:

\[ \begin{aligned} \hat{\theta}_{Bayes} & = \frac{\alpha + n}{\beta + \sum_{i=1}^{n} x_i} \\ & = \frac{1 + 5}{2 + 0.23 + 0.07 + 0.98 + 0.61 + 0.75} \\ & = \frac{6}{4.64} \\ & = 1.2931034 \end{aligned} \]