Distribución de \(Y_i\) y \(Y={\sum}Y_i\) utilizando la técnica de la función generadora de momentos:
La función generdora de momentos de \(Y_i\) es:
\[ M_{Y_i}(t) = e^{t\beta_1 x_i + 0.5 \sigma^2 t^2} \]
La función generadora de momentos de \(Y\) es:
\[ M_Y(t) = e^{\sum_{i=1}^{n} (t\beta_1 x_i + 0.5 \sigma^2 t^2)} \]
Estimación de parámetros para la distribución \(f_X(x|\theta)=\theta{e}^{(-\theta{x})}\mathbb{I}_{(0,\infty)}(x)\):
La media muestral \(\overline{X}\) se estima como \(\frac{1}{\theta}\)
El estimador de los momentos de \(\theta\) es:
\[ \widehat{\theta} = \frac{1}{\bar{X}} \]
El estimador de Bayes para \(\theta\) es:
\[ \hat{\theta} = \frac{\alpha + n}{\beta + \sum_{i=1}^{n} x_i} \]
La estimación puntual bajo máxima verosimilitud es:
\[ \hat{\theta}_{ML} = \frac{n}{\sum_{i=1}^{n} x_i} \]
Y la estimación puntual bajo el enfoque bayesiano con \(\alpha=1\) y \(\beta=2\) es:
\[ \hat{\theta}_{Bayes} = \frac{\alpha + n}{\beta + \sum_{i=1}^{n} x_i} \]
Distribución de \(Y_i\) y \(Y={\sum}Y_i\) utilizando la técnica de la función generadora de momentos:
\[ M_{Y_i}(t) = E[e^{tY_i}] \]
Luego, dado que \(Y_i=\beta_1x_i+\epsilon_i\), donde \(\epsilon_i\) sigue una distribución normal con media cero y varianza \(\sigma^2\), tenemos:
\[ M_{Y_i}(t) = E[e^{t(\beta_1 x_i + \epsilon_i)}] = E[e^{t\beta_1 x_i} \cdot e^{t\epsilon_i}] = e^{t\beta_1 x_i} \cdot E[e^{t\epsilon_i}] = e^{t\beta_1 x_i} \cdot e^{0.5 \sigma^2 t^2} = e^{t\beta_1 x_i + 0.5 \sigma^2 t^2} \]
Por lo tanto, la función generadora de momentos de \(Y_i\) es \(M_{Y_i}(t) = e^{t\beta_1 x_i + 0.5 \sigma^2 t^2}\) y esto corresponde a la FGM de una variable aleatoria normal; lo que indica que \(Y_i\) sigue una distribución normal, es decir, \(Y_i{\sim}N(\beta_1 x_i, \sigma^2)\).
Utilizando la propiedad de la función generadora de momentos de la suma de variables aleatorias independientes, tenemos:
\[ M_Y(t) = \prod_{i=1}^{n} M_{Y_i}(t) = \prod_{i=1}^{n} e^{t\beta_1 x_i + 0.5 \sigma^2 t^2} = e^{ \sum_{i=1}^{n} (t\beta_1 x_i + 0.5 \sigma^2 t^2) } \]
Esto implica que \(Y\) sigue una distribución normal con media \(\mu=\beta_1\sum_{i=1}^{n}x_i\) y varianza \(\sigma^2n\).
Estimación de parámetros para la distribución \(f_X(x|\theta)=\theta{e}^{(-\theta{x})}\mathbb{I}_{(0,\infty)}(x)\):
La media muestral \(\overline{X}\) se estima como \(\frac{1}{\theta}\)
Igualamos el primer momento muestral al primer momento teórico \(E[X]=\frac{1}{\theta}\) y despejamos \(\theta\), obteniendo:
\[ \widehat{\theta} = \frac{1}{\bar{X}} \]
Calculamos la distribución a posteriori de \(\theta\) y obtenemos el estimador de Bayes utilizando la esperanza condicional.
\[ \hat{\theta} = \frac{\alpha + n}{\beta + \sum_{i=1}^{n} x_i} \]
La estimación puntual bajo máxima verosimilitud es:
\[ \begin{aligned} \hat{\theta}_{ML} & = \frac{n}{\sum_{i=1}^{n} x_i} \\ & = \frac{5}{0.23 + 0.07 + 0.98 + 0.61 + 0.75}\\ & = \frac{5}{2.64}\\ & = 1.8939394 \end{aligned} \]
Y la estimación puntual bajo el enfoque bayesiano con \(\alpha=1\) y \(\beta=2\) es:
\[ \begin{aligned} \hat{\theta}_{Bayes} & = \frac{\alpha + n}{\beta + \sum_{i=1}^{n} x_i} \\ & = \frac{1 + 5}{2 + 0.23 + 0.07 + 0.98 + 0.61 + 0.75} \\ & = \frac{6}{4.64} \\ & = 1.2931034 \end{aligned} \]