Sean \(Y_1,\dots, Y_n\) variables aleatorias independientes, si cada una tiene función de densidad o función de probabilidad de la forma: \[f(y_i;\theta_i,\phi) = \exp[\phi \{y_i\theta_i-b(\theta_i)\}+c(y_i,\phi)]\] se dice entonces que pertenece a la familia exponencial.
Donde el parámetro de interés \(\theta = h(\mu)\) depende del valor esperado de \(y\), \(\phi\) es un parámetro de escala positivo y \(b\), \(c\) son funciones arbitrarias.
Esta representación se puede escribir de diferentes maneras y se puede generalizar ligeramente.
Se puede mostrar bajo condiciones habituales de regularidad
\[E\bigg\{\frac{ \partial\log f(Y_i;\theta_i,\phi)}{\partial\theta_i}\bigg\} = 0 \quad \forall i\] \[E\bigg\{\frac{ \partial^2\log f(Y_i;\theta_i,\phi)}{\partial\theta_i^2}\bigg\} = -E\bigg[\bigg\{\frac{ \partial\log f(Y_i;\theta_i,\phi)}{\partial\theta_i}\bigg\}^2\bigg]\quad \forall i\]
La \(E(Y_i) = \mu_i = b'(\theta_i)\) y \(Var(Y_i) = \phi^{-1}V(\mu_i)\), donde \(V_i=V(\mu_i)= d\mu_i/d\theta_i\) es la función de varianza y \(\phi^{-1}>0\)\((\phi>0)\) es el parámetro de dispersión.
La función de varianza desempeña un papel importante en la familia exponencial ya que la misma caracteriza la distribución, esto es; dada la función de varianza, se tiene una clase de distribuciones correspondientes, y viceversa.
Tenga en cuenta que la varianza de \(Y\) depende tanto del parámetro de escala (una constante) como de \(b\), una función que controla la relación entre la media y la varianza.
Las siguientes son las distribuciones más conocidas pertenecientes a la familia exponencial.
Sea \(Y\) una variable aleatoria con distribución normal con media \(\mu\) y varianza \(\sigma^2\), es decir, \(Y \sim N(\mu,\sigma^2)\). La función de densidad de \(Y\) se expresa de la forma:
\[\frac{1}{\sigma\sqrt{2\pi}}\exp\bigg\{-\dfrac{1}{2\sigma^2}(y-\mu)^2\bigg\} = \exp\bigg\{\frac{1}{\sigma^2}\bigg[\mu y-\frac{\mu^2}{2}\bigg]-\frac{1}{2}\bigg[\log(2\pi\sigma^2) + \frac{y^2}{\sigma^2}\bigg]\bigg\}\]
Donde \(\sigma^2>0\) , \(-\infty < \mu, y < \infty\) .
Luego para \(\theta = \mu\), \(b(\theta) = \theta^2/2\), \(\phi = \sigma^{-2}\) y \(c(y,\phi) = (1/2)\log(\phi/2\pi)-(\phi y^2/2)\) obtenemmos \[f(y_i;\theta_i,\phi) = \exp[\phi \{y_i\theta_i-b(\theta_i)\}+c(y_i,\phi)]\] En R, la función que calcula la densidad de una normal es,
dnorm(x, mean = 0, sd = 1, log = FALSE)
Y para realizar la gráfica se puede usar los siguientes comandos
curve(dnorm(x,80,12),xlim=c(50,120),col="green",lwd=2,
xlab="x",ylab="f(x)",main="Función de Densidad N(80,12)")
En el caso de \(Y\sim P(\mu)\), la función de probabilidad es dada por \[\frac{e^{-\mu}\mu^y}{y!} = e^{y\log\mu-\mu-\log{y!}}\] Donde \(\mu>0\), \(y = 0,1,\dots\) Haciendo \(\log\mu = \theta\), \(b(\theta) = e^\theta\), \(\phi = 1\), \(c(y, \phi) = -\log y!\) obtenemos \[f(y_i;\theta_i,\phi) = \exp[\phi \{y_i\theta_i-b(\theta_i)\}+c(y_i,\phi)]\] Por lo tanto \(V(\mu) = \mu\)
Note que la Poisson no tiene un parámetro de escala, es decir, \((\phi = 1)\). Además note que la varianza está determinada completamente por la media.
En R, la función que calcula la densidad de una poisson es,
dpois(x, lambda, log = FALSE)
Y para realizar la gráfica se puede usar los siguientes comandos
curve(dpois(x,8),xlim=c(0,30),col="green",lwd=2,
xlab="x",ylab="f(x)",main="Función de Densidad P(8)")
Sea \(Y^*\) la proporción de éxitos en n ensayos independientes, cada uno con probabilidad de ocurrencia \(\mu\). Asumimos que \(nY^*\sim B(n,\mu)\). La función de probabilidad de \(Y^*\) se expresa de la forma
\[{n \choose ny^*} \mu^{ny^*}(1-\mu)^{n-ny^*} = \exp\bigg\{\log{n \choose ny^*} +ny^*\log\bigg(\frac{\mu}{1-\mu}\bigg)+n\log(1-\mu)\bigg\},\] Donde \(0<\mu,y^*<1\).
Haciendo \(\phi = n\), \(\theta = n\), \(\theta = \log\{\mu/(1-\mu)\}\), \(b(\theta) = log(1+e^\theta)\), \(c(y^*, \phi) = \log {\phi \choose \phi y^*}\) obtenemos \[f(y_i;\theta_i,\phi) = \exp[\phi \{y_i\theta_i-b(\theta_i)\}+c(y_i,\phi)]\]
La función de varianza aquí está dada por \(V(\mu) = \mu(1-\mu)\).
Tenga en cuenta que, al igual que el Poisson, la distribución binomial no requiere un parámetro de escala.
En R, la función que calcula la densidad de una binomial es,
dbinom(x, size, prob, log = FALSE)
Y para realizar la gráfica se puede usar los siguientes comandos
curve(dbinom(x,8,0.6),xlim=c(0,10),col="green",lwd=2,
xlab="x",ylab="f(x)",main="Función de Densidad B(8, 0.6)")
Sea \(Y\) una variable aleatoria con distribución gamma con media \(\mu\) y coeficiente de variación \(\phi^{-1/2}\), denotamos \(Y \sim G (\mu,\phi)\). La función de densidad de Y es dada por \[ \frac{1}{\Gamma(\phi)}\bigg(\frac{\phi y}{\mu} \bigg)^{\phi}\exp\bigg\{-\frac{\phi y}{\mu} \bigg\}d(\log y) = \exp\bigg[\phi\bigg\{\bigg(\frac{-y}{\mu}\bigg)-\log\mu\bigg\}-\log\Gamma(\phi)+\phi\log(\phi y)-\log y\bigg],\] Donde \(y,\, \phi,\, \mu >0\) y \(\Gamma(\phi) = \int_{0}^{\infty}t^{\phi-1}e^{-t}dt\) es la función gamma.
Luego, haciendo \(\theta = -1/\mu\), \(b(\theta)= -\log(-\theta)\), \(c(y,\phi) = (\phi-1)\log y + \phi\log\phi-\log\Gamma(\phi)\) obtenemos \[f(y_i;\theta_i,\phi) = \exp[\phi \{y_i\theta_i-b(\theta_i)\}+c(y_i,\phi)]\]
Para $0 < 1$ la función de densidad se asume cero en el origen, tiene un máximo en \(y = \mu - (\mu/\phi)\) y luego decrece para\(y \rightarrow \infty\).
La \(\chi_{k}^{2}\) es otro caso especial cuando \(\phi = k/2\) y \(\mu = k\). La distribución normal se obtiene haciendo \(\phi \rightarrow \infty\). Esto es, cuando \(\phi\) es grande \(Y \sim N(\mu, \phi^{-1}V(\mu))\). Tenemos que \(\phi = E^2(Y)/Var(Y)\) es el inverso del coeficiente de variación de \(Y\) al cuadrado, es decir, \(\phi = 1/(CV)^2\), donde \(CV= \sqrt{Var(Y)}/E(Y)\). La función de varianza de la gama viene dada por \(V(\mu)= \mu^2\).
En R, la función que calcula la densidad de una gamma es,
dgamma(x, shape, rate = 1, scale = 1/rate, log = FALSE)
Y para realizar la gráfica se puede usar los siguientes comandos
curve(dgamma(x,3,0.6),xlim=c(0,15),col="green",lwd=2,
xlab="x",ylab="f(x)",main="Función de Densidad G(3, 0.6)")
Sea \(Y\) una variable aleatoria con distribución normal inversa con media \(\mu\) y parámetro de presición \(\phi\), denotada por \(Y\sim NI(\mu,\phi)\) y cuya función de densidad esta dada por
\[\frac{\phi^{1/2}}{\sqrt{2\pi y^3}}\exp\bigg\{-\frac{\phi(y-\mu)^2}{2\mu^2y}\bigg\} = \exp\bigg[\phi\bigg\{ -\frac{y}{2\mu^2}+\frac{1}{\mu}\bigg\}-\frac{1}{2}\bigg\{\log\bigg(\frac{2\pi y^3}{\phi} \bigg) + \frac{\phi}{y} \bigg\} \bigg], \] Donde \(y\), \(\mu\)\(>0\).
Haciendo \(\theta = -1/(2\mu^2)\), \(b(\theta) = -(-2\theta)^{1/2}\), \(c(y,\phi) = (1/2) \log\{\phi/(2\pi y^3)\}-(\phi/2y)\).
Obtenemos
\[f(y_i;\theta_i,\phi) = \exp[\phi \{y_i\theta_i-b(\theta_i)\}+c(y_i,\phi)]\]
La normal inversa se aproxima a una normal cuando \(\phi\rightarrow \infty\). Es decir, para \(\phi\) grande tenemos \(Y\sim N(\mu, \phi^{-1}V(\mu))\).
La función de varianza esta dada por \(V(\mu) = \mu^3\)
Distribución | \(b(\theta)\) | \(\theta\) | \(\phi\) | \(V(\mu)\) |
---|---|---|---|---|
Normal | \(\theta^2/2\) | \(\mu\) | \(\sigma^{-2}\) | 1 |
Poisson | \(e^\theta\) | \(\log(\mu)\) | 1 | \(\mu\) |
Binomial | \(\log(1+e^\theta)\) | \(\log\{\mu/(1-\mu)\}\) | \(n\) | \(\mu(1-\mu)\) |
Gamma | \(-\log(-\theta)\) | \(-1/\mu\) | \(1/(CV)^2\) | \(\mu^2\) |
N. Inversa | \(-\sqrt{-2\theta}\) | \(-1/(2\mu^2)\) | \(\phi\) | \(\mu^3\) |
MODELOS DE REGRESSÃO com apoio computacional Gilberto A. Paula
https://web.as.uky.edu/statistics/users/pbreheny/760/S13/notes/1-31.pdf