Esta demostración se puede llevar acabo por medio de la función de probabilidad de la distribución.
Función de probabilidad
\(F(Y;n,p) = \begin{pmatrix} n\\ y \end{pmatrix} p^{y} (1-p)^{n-y}\)
Solución:
\(F(Y;n,p) = e^{\ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} p^{y} (1-p)^{n-y} \end{bmatrix}}\)
\(F(Y;n,p) = e^{\ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix} + \ln \begin{pmatrix} p^{y} \end{pmatrix} + \ln \begin{bmatrix} \begin{pmatrix} (1-p)^{n-y} \end{pmatrix} \end{bmatrix}}\)
\(F(Y;n,p) = e^{\ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix} + y \ln \begin{pmatrix} p \end{pmatrix} + (n-y) \ln \begin{bmatrix} \begin{pmatrix} (1-p) \end{pmatrix} \end{bmatrix}}\)
\[ \rightarrow \]
\[(n-y) \ln(1-p) = n \ln(1-p) - y \ln(1-p) \]
\(\Longrightarrow\)
\(F(Y;n,p) = e^{\ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix} + y \ln \begin{pmatrix} p \end{pmatrix} + n \ln (1-p) - y \ln (1-p) }\)
\(F(Y;n,p) = e^{\ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix} + y \begin{pmatrix} \ln (p) - \ln (1-p) \end{pmatrix} + n \ln (1-p) }\)
Por propiedades:
\[ \rightarrow \]
\[ \ln (p) - \ln (1 - p) = \ln \begin{pmatrix} \frac{p}{1-p} \end{pmatrix}\]
\(F(Y;n,p) = e^{\ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix} + y \ln \begin{pmatrix} \frac{p}{1-p} \end{pmatrix} + n \ln(1-p)}\)
Donde:
\[d(Y) = \ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix}\] \[b(\theta) = \ln \begin{pmatrix} \frac{p}{1-p} \end{pmatrix}\]
\[c(\theta) = n \ln (1-p)\]
Reordenando para que se adecue a la fórmula general de la familia exponencial:
\(F(Y;n,p) = e^{a(Y) b(\theta) + c(\theta) + d(Y)}\)
Se obtendría lo siguiente:
\(F(Y;n,p) = e^{y \ln \begin{pmatrix} \frac{p}{1-p} \end{pmatrix} + n \ln (1-p) + \ln \begin{bmatrix} \begin{pmatrix} n\\ y \end{pmatrix} \end{bmatrix}}\)
\(\therefore\) La Distribución Binomial \(\epsilon\) FED como \(Y\) ~ \(B(n,\pi)\).
\(\Longrightarrow\) \(Y\) se puede modelar con GML.
Para \(Y\) ~ \(N(\mu,\sigma)\):
Función de probabilidad
\(\frac{1}{\sqrt{2 \pi \sigma^{2}}} e^{- \frac{(y-\mu)^{2}}{2\sigma^{2}}}\)
\(M(t) = E[e^{ty}] = \int_{-\infty}^{\infty} \frac{1}{\sigma \sqrt{2 \pi}} e^{- \frac{(y- \mu)^2}{2 \sigma ^2}} e^{ty} \mathrm{d}y\)
Cambio de variable:
\(z = \frac{x- \mu}{\sigma}\) , \(y = \sigma z + \mu\) , \(dy = \sigma dz\)
\(M(t) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} \frac{1}{\sigma} e^{- \frac{z^2}{2}} e^{t (\sigma z + \mu)} \sigma \mathrm{d}z\)
\(M(t) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{- \frac{z^2}{2}} e^{t (\sigma z + \mu)} \mathrm{d}z\)
\(M(t) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{- \frac{z^2}{2} + t (\sigma z + \mu)} \mathrm{d}z\)
\[ \rightarrow \]
\(- \frac{z^2}{2} + t \sigma z + t \mu = - \frac{z^2}{2} + t \sigma z + t \mu\)
\(- \frac{z^2}{2} + t \sigma z = - \frac{1}{2} (z^2 - 2t \sigma z)\)
\(z^2 - 2 t \sigma z = (z-t \sigma)^2 - (t \sigma)^2\)
\(- \frac{1}{2} (z^2 - 2t \sigma z) = - \frac{1}{2} [(z-t \sigma)^2 - (t \sigma)^2]\)
\[= - \frac{1}{2} (z - t \sigma)^2 + \frac{(t \sigma)^2}{2}\] \(\Longrightarrow\)
\(M(t) = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{- \frac{1}{2} (z - t \sigma)^2 + \frac{(t \sigma)^2}{2}+t \mu} \mathrm{d}z\)
\(M(t) = \frac{e^{\frac{(t \sigma)^2}{2} t \mu}}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{- \frac{1}{2} (z-t \sigma)^2} \mathrm{d}z\)
Haciendo un cambio de variable:
\(v = z - t \sigma\) , \(dv = dz\)
\(\Longrightarrow\)
\(M(t) = \frac{e^{\frac{(t \sigma)^2}{2} t \mu}}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{ - \frac{1}{2} v^2} \mathrm{d}v\)
Esta expresión es la integral de la función de densidad de probabilidad de una distribución normal estándar, la cual se conoce que se integra hasta llegar a \(\sqrt{2 \pi}\)
\(\Longrightarrow\)
$ _{-}^{} e^{ - v^2} v = $
\(M(t) = \frac{e^{\frac{(t \sigma)^2}{2} t \mu}}{\sqrt{2 \pi}} \sqrt{2 \pi}\)
$M(t) = e^{ + t } $
\(\therefore\)
Si \(E[Y]=M´(t)\)
por:
\(f(t) = e^{g(t)} \Longrightarrow f´(t) = g´(t) e^{g(t)}\)
Tenemos:
\(M´(t) = \frac{d}{dt} (\frac{(t \sigma)^2}{2} + t \mu)\)
\[ \frac{d}{dt} ( \frac{(t\sigma)^2}{2}) = \frac{d}{dt} (\frac{\sigma^2 + t^2}{2}) = \sigma^2 t\] \[\frac{d}{dt}(t\mu) = \mu \]
Sumando derivadas:
\(M´(t) = (\sigma^2 t + \mu) e^{\frac{(t\sigma)^2}{2}+t \mu}\)
Si t=0 entonces:
\(M´(t) = (\sigma^2 (0) + \mu) e^{\frac{(0\sigma)^2}{2}+0 \mu}\) \(M´(t) = \mu e^0\) \(M´(t) = \mu\)
\(\therefore E[Y]=\mu\)
\(E[Y^2]= M´´(t)\)
\(M´´(t) = \frac{d}{dt} ((\sigma^2 t + \mu) e^{\frac{(t\sigma)^2}{2}+t \mu})\)
\(M´´(t) = \frac{d}{dt} (e^{\frac{(t\sigma)^2}{2}+t \mu}) (\sigma ^2t + \mu) + e^{\frac{(t\sigma)^2}{2}+t\mu} \frac{d}{dt} (\sigma^2t+\mu)\)
dado que:
\(\frac{d}{dt}(e^x) = e^x \frac{d}{dt}(x)\)
\(\Longrightarrow\)
\(\frac{d}{dt} (e^{\frac{(t\sigma)^2}{2}+t\mu}) = e^{\frac{(t\sigma)^2}{2}+t\mu} \sigma^2t +\mu\)
\[ \rightarrow \]
\(\frac{d}{dt} (\sigma^2t + \mu) = \sigma\)
\(M´´(t) = e^{\frac{(t\sigma)^2}{2}+t\mu} \sigma^2 [(\sigma^2t+\mu)+1]\)
Si t=0, entonces:
\(M´´(0) = e^{\frac{(0 \sigma)^2}{2}+0\mu} \sigma^2 [(\sigma^2 0 +\mu)+1]\)
\(M´´(0) = e^0 \sigma^2 [\mu +1]\)
\(M´´(0) = \sigma^2[\mu + 1]\)
Sustituyendo en Var(Y):
\(Var(Y) = E[Y^2] - (E[y])^2\)
Donde el primer momento es \(E[Y] = \mu\) y el segundo momento es \(E[Y^2] = \sigma^2 + \mu^2\)
Entonces:
\(Var(Y) = (\sigma^2 + \mu^2) - \mu^2\)
\(Var(Y) = \sigma^2\)
\(\therefore\) Ya que \(E[Y] = \mu\) y \(Var(Y) = \sigma^2\) Etonces Y \(\epsilon\) FED, es decir, se puede aplicar la modelación GML.