a) Demostrar que la Distribución Binomial \(Y\) ~ \(B(n,\pi)\) , pertenece a la familia exponencial de distribuciones (FED).

Esta demostración se puede llevar acabo por medio de la función de probabilidad de la distribución.

Función de probabilidad

\(F(Y;n,p) = \begin{pmatrix} n\\ y \end{pmatrix} p^{y} (1-p)^{n-y}\)

Solución:

\(F(Y;n,p) = e^{\ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} p^{y} (1-p)^{n-y} \end{bmatrix}}\)

\(F(Y;n,p) = e^{\ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix} + \ln \begin{pmatrix} p^{y} \end{pmatrix} + \ln \begin{bmatrix} \begin{pmatrix} (1-p)^{n-y} \end{pmatrix} \end{bmatrix}}\)

\(F(Y;n,p) = e^{\ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix} + y \ln \begin{pmatrix} p \end{pmatrix} + (n-y) \ln \begin{bmatrix} \begin{pmatrix} (1-p) \end{pmatrix} \end{bmatrix}}\)

\[ \rightarrow \]

\[(n-y) \ln(1-p) = n \ln(1-p) - y \ln(1-p) \]

\(\Longrightarrow\)

\(F(Y;n,p) = e^{\ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix} + y \ln \begin{pmatrix} p \end{pmatrix} + n \ln (1-p) - y \ln (1-p) }\)

\(F(Y;n,p) = e^{\ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix} + y \begin{pmatrix} \ln (p) - \ln (1-p) \end{pmatrix} + n \ln (1-p) }\)

Por propiedades:

\[ \rightarrow \]

\[ \ln (p) - \ln (1 - p) = \ln \begin{pmatrix} \frac{p}{1-p} \end{pmatrix}\]

\(F(Y;n,p) = e^{\ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix} + y \ln \begin{pmatrix} \frac{p}{1-p} \end{pmatrix} + n \ln(1-p)}\)

Donde:

\[d(Y) = \ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix}\] \[b(\theta) = \ln \begin{pmatrix} \frac{p}{1-p} \end{pmatrix}\]

\[c(\theta) = n \ln (1-p)\]

Reordenando para que se adecue a la fórmula general de la familia exponencial:

\(F(Y;n,p) = e^{a(Y) b(\theta) + c(\theta) + d(Y)}\)

Se obtendría lo siguiente:

\(F(Y;n,p) = e^{y \ln \begin{pmatrix} \frac{p}{1-p} \end{pmatrix} + n \ln (1-p) + \ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix}}\)

\(\therefore\) La Distribución Binomial \(\epsilon\) FED como \(Y\) ~ \(B(n,\pi)\).

\(\Longrightarrow\) \(Y\) se puede modelar con GML.

b) Determinar los momentos paramétricos de una FED, sabiendo que las variables provienen de la Distribución Normal \(Y\) ~ \(N(\mu,\sigma)\).

Para \(Y\) ~ \(N(\mu,\sigma)\):

Función de probabilidad

\(\frac{1}{\sqrt{2 \pi \sigma^{2}}} e^{- \frac{(y-\mu)^{2}}{2\sigma^{2}}}\)

Primer momento:

\(M(t) = E[e^{ty}] = \int_{-\infty}^{\infty} \frac{1}{\sigma \sqrt{2 \pi}} e^{- \frac{(y- \mu)^2}{2 \sigma ^2}} e^{ty} \mathrm{d}y\)

Cambio de variable:

\(z = \frac{x- \mu}{\sigma}\) , \(y = \sigma z + \mu\) , \(dy = \sigma dz\)

\(M(t) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} \frac{1}{\sigma} e^{- \frac{z^2}{2}} e^{t (\sigma z + \mu)} \sigma \mathrm{d}z\)

\(M(t) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{- \frac{z^2}{2}} e^{t (\sigma z + \mu)} \mathrm{d}z\)

\(M(t) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{- \frac{z^2}{2} + t (\sigma z + \mu)} \mathrm{d}z\)

\[ \rightarrow \]

\(- \frac{z^2}{2} + t \sigma z + t \mu = - \frac{z^2}{2} + t \sigma z + t \mu\)

\(- \frac{z^2}{2} + t \sigma z = - \frac{1}{2} (z^2 - 2t \sigma z)\)

\(z^2 - 2 t \sigma z = (z-t \sigma)^2 - (t \sigma)^2\)

\(- \frac{1}{2} (z^2 - 2t \sigma z) = - \frac{1}{2} [(z-t \sigma)^2 - (t \sigma)^2]\)

\[= - \frac{1}{2} (z - t \sigma)^2 + \frac{(t \sigma)^2}{2}\] \(\Longrightarrow\)

\(M(t) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{- \frac{1}{2} (z - t \sigma)^2 + \frac{(t \sigma)^2}{2}+t \mu} \mathrm{d}z\)

\(M(t) = \frac{e^{\frac{(t \sigma)^2}{2} t \mu}}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{- \frac{1}{2} (z-t \sigma)^2} \mathrm{d}z\)

Haciendo un cambio de variable:

\(v = z - t \sigma\) , \(dv = dz\)

\(\Longrightarrow\)

\(M(t) = \frac{e^{\frac{(t \sigma)^2}{2} t \mu}}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{ - \frac{1}{2} v^2} \mathrm{d}v\)

Esta expresión es la integral de la función de densidad de probabilidad de una distribución normal estándar, la cual se conoce que se integra hasta llegar a \(\sqrt{2 \pi}\)

\(\Longrightarrow\)

$ _{-}^{} e^{ - v^2} v = $

\(M(t) = \frac{e^{\frac{(t \sigma)^2}{2} t \mu}}{\sqrt{2 \pi}} \sqrt{2 \pi}\)

$M(t) = e^{ + t } $

\(\therefore\)

Si \(E[Y]=M´(t)\)

por:

\(f(t) = e^{g(t)} \Longrightarrow f´(t) = g´(t) e^{g(t)}\)

Tenemos:

\(M´(t) = \frac{d}{dt} (\frac{(t \sigma)^2}{2} + t \mu)\)

\[ \frac{d}{dt} ( \frac{(t\sigma)^2}{2}) = \frac{d}{dt} (\frac{\sigma^2 + t^2}{2}) = \sigma^2 t\] \[\frac{d}{dt}(t\mu) = \mu \]

Sumando derivadas:

\(M´(t) = (\sigma^2 t + \mu) e^{\frac{(t\sigma)^2}{2}+t \mu}\)

Si t=0 entonces:

\(M´(t) = (\sigma^2 (0) + \mu) e^{\frac{(0\sigma)^2}{2}+0 \mu}\) \(M´(t) = \mu e^0\) \(M´(t) = \mu\)

\(\therefore E[Y]=\mu\)

Segundo momento

\(E[Y^2]= M´´(t)\)

\(M´´(t) = \frac{d}{dt} ((\sigma^2 t + \mu) e^{\frac{(t\sigma)^2}{2}+t \mu})\)

\(M´´(t) = \frac{d}{dt} (e^{\frac{(t\sigma)^2}{2}+t \mu}) (\sigma ^2t + \mu) + e^{\frac{(t\sigma)^2}{2}+t\mu} \frac{d}{dt} (\sigma^2t+\mu)\)

dado que:

\(\frac{d}{dt}(e^x) = e^x \frac{d}{dt}(x)\)

\(\Longrightarrow\)

\(\frac{d}{dt} (e^{\frac{(t\sigma)^2}{2}+t\mu}) = e^{\frac{(t\sigma)^2}{2}+t\mu} \sigma^2t +\mu\)

\[ \rightarrow \]

\(\frac{d}{dt} (\sigma^2t + \mu) = \sigma\)

\(M´´(t) = e^{\frac{(t\sigma)^2}{2}+t\mu} \sigma^2 [(\sigma^2t+\mu)+1]\)

Si t=0, entonces:

\(M´´(0) = e^{\frac{(0 \sigma)^2}{2}+0\mu} \sigma^2 [(\sigma^2 0 +\mu)+1]\)

\(M´´(0) = e^0 \sigma^2 [\mu +1]\)

\(M´´(0) = \sigma^2[\mu + 1]\)

Sustituyendo en Var(Y):

\(Var(Y) = E[Y^2] - (E[y])^2\)

Donde el primer momento es \(E[Y] = \mu\) y el segundo momento es \(E[Y^2] = \sigma^2 + \mu^2\)

Entonces:

\(Var(Y) = (\sigma^2 + \mu^2) - \mu^2\)

\(Var(Y) = \sigma^2\)

\(\therefore\) Ya que \(E[Y] = \mu\) y \(Var(Y) = \sigma^2\) Etonces Y \(\epsilon\) FED, es decir, se puede aplicar la modelación GML.