EP7120-Modelos Lineales Generalizados Aplicados
Universidad Nacional Agraria La Molina (UNALM), Perú
En los modelos lineales generalizados, la elección de la distribución de la variable respuesta es un componente fundamental del modelo.
Según la naturaleza de la respuesta, pueden surgir situaciones como las siguientes:
Por ello, antes de estudiar la formulación general de un modelo lineal generalizado, es necesario revisar algunas distribuciones de probabilidad que servirán como base para su construcción e interpretación.
En esta presentación se revisarán distribuciones discretas y continuas de especial interés, con énfasis en aquellas que luego aparecerán en el marco de la familia exponencial.
En esta presentación se revisarán algunas distribuciones de probabilidad que resultan especialmente útiles como base para los modelos lineales generalizados.
Distribuciones discretas
Distribuciones continuas
En cada caso se pondrá atención en:
Un experimento de Bernoulli es un experimento aleatorio que cumple las siguientes condiciones:
Si denotamos por \(p\) la probabilidad de éxito, entonces
\[ P(\text{éxito})=p, \qquad P(\text{fracaso})=1-p, \qquad 0<p<1. \]
Ejemplos
Este experimento constituye la base para varias distribuciones discretas, como la Bernoulli, la Binomial, la Geométrica y la Binomial negativa.
Sea \(X\) una variable aleatoria asociada a un experimento de Bernoulli, definida por
\[ X = \begin{cases} 1, & \text{si ocurre éxito},\\ 0, & \text{si ocurre fracaso}. \end{cases} \]
Se dice que \(X\) sigue una distribución Bernoulli con parámetro \(p\), y se denota por
\[ X \sim \operatorname{Bernoulli}(p), \qquad 0<p<1. \]
Aquí, \(p\) representa la probabilidad de éxito del experimento; es decir,
\[ p=P(X=1). \]
Su función de probabilidad es
\[ P(X=x)= \begin{cases} p^x(1-p)^{1-x}, & x=0,1,\\ 0, & \text{en otro caso.} \end{cases} \]
Además,
\[ E(X)=p \qquad\text{y}\qquad \operatorname{Var}(X)=p(1-p). \]
Sea \(X\) una variable aleatoria que representa el número de éxitos en \(n\) ensayos de Bernoulli independientes, cada uno con probabilidad de éxito \(p\).
Se dice que \(X\) sigue una distribución Binomial con parámetros \(n\) y \(p\), y se denota por
\[ X \sim \operatorname{Binomial}(n,p), \]
donde
Su función de probabilidad es
\[ P(X=x)= \begin{cases} \binom{n}{x}p^x(1-p)^{n-x}, & x=0,1,\dots,n,\\ 0, & \text{en otro caso.} \end{cases} \]
Además,
\[ E(X)=np \qquad\text{y}\qquad \operatorname{Var}(X)=np(1-p). \]
Con \(n\) fijo, el parámetro \(p\) modifica la localización y la forma de la distribución.
Caso 1: \(X \sim \operatorname{Binomial}(20,0.2)\)
La probabilidad se concentra en valores bajos de éxitos.
Caso 2: \(X \sim \operatorname{Binomial}(20,0.5)\)
La distribución es más simétrica y se centra alrededor de \(np=10\).
Caso 3: \(X \sim \operatorname{Binomial}(20,0.8)\)
La probabilidad se desplaza hacia valores altos de éxitos.
Conclusión: con \(n\) fijo, al aumentar \(p\), la distribución se desplaza hacia la derecha; además, su forma cambia según la cercanía de \(p\) a 0.5.
Sea \(X\) una variable aleatoria que representa el número de ensayos necesarios hasta obtener el primer éxito en una secuencia de ensayos de Bernoulli independientes, cada uno con probabilidad de éxito \(p\).
Se dice que \(X\) sigue una distribución Geométrica con parámetro \(p\), y se denota por
\[ X \sim \operatorname{Geom}(p), \qquad 0<p<1. \]
Aquí, \(p\) representa la probabilidad de éxito en cada ensayo.
Su función de probabilidad es
\[ P(X=x)= \begin{cases} (1-p)^{x-1}p, & x=1,2,3,\dots,\\ 0, & \text{en otro caso.} \end{cases} \]
Además,
\[ E(X)=\frac{1}{p} \qquad\text{y}\qquad \operatorname{Var}(X)=\frac{1-p}{p^2}. \]
En la distribución Geométrica, el parámetro \(p\) cumple dos papeles importantes:
En particular:
Por tanto, valores grandes de \(p\) describen situaciones en las que el primer éxito suele ocurrir rápidamente.