Tipos de distribuciones de variable discreta

Definidas sobre un dominio finito

1. La distribución de Bernoulli,

es la definición del proceso discreto, estableciendo que cualquier resultado puede ser clasificado como éxito (S) o fracaso(F) y que da origen a las demás distribuciones de probabilidad discreta. Define éxito «1», con probabilidad p, o fracaso «0», con probabilidad q = 1 − p (ensayo de Bernoulli).

\[P(X \le 1) = \sum_{i=0}^1 p^x q^{1-x}\]

2. La distribución binomial,

(programada en r),explica el comportamiento de un número de éxitos en una serie de n experimentos independientes con posibles resultados de experimentos de bernoulli idénticos, es decir, de «S» o «F», todos ellos con probabilidad de éxito p y probabilidad de fallo q = 1 − p.

sea

\[P(X \le n) = \sum_{x=0}^n \binom{n}{x} p^x q^{n-x}\]

en R,

\(P(x\leq a) = pbinom(a,n,p)\)

\(P(x>a) = 1-P(x\leq a-1)= 1 -pbinom(a-1,n,p)\)

3. La distribución de Rademacher,

que toma valores «1» o «-1» con probabilidad 1/2 cada uno. \[P(x) = \left\{ \begin{array}{lr} \frac{1}{2} & : x = 1 \\ \frac{1}{2} & : x = -1 \end{array} \right. \] es recomendable revise los limites de las sumatorias.

4. La distribución beta-binomial,

describe el número de éxitos en una serie de n experimentos independientes con posibles resultados «sí» o «no», cada uno de ellos con una probabilidad de éxito variable definida por una beta.

\[f(k/n,\alpha,\beta)=\int_{0}^{1}L(p|k)\pi(p|\alpha,\beta) dp\]

\[ = \binom{n}{k} \frac{1}{B(\alpha,\beta)}\int_{0}^{1}p^{k+\alpha-1}1-p^{n-k+\beta-1}dp \]

\[ =\binom{n}{x} \frac{B(k+\alpha,n-k+\beta)}{B(\alpha,\beta)} \]

\[ = \binom{n}{k}\frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)+\Gamma(\beta)}\frac{\Gamma(k+\alpha)\Gamma(n+\beta-k)}{\Gamma(n+\alpha+\beta)}I_{0,1,...,n}(k) \]

donde \[ \Gamma(m) = \int_{0}^{\infty}x^{m-1}e^{-x}dx\]

5. La distribución degenerada en x0, **

X toma el valor x0 con probabilidad 1. A pesar de que no parece una variable aleatoria, la distribución satisface todos los requisitos para ser considerada como tal.

\[F_{k_0}(x) = \left\{ \begin{array}{lr} 1 & : x \ge k_0 \\ 0 & : x < k_0 \end{array} \right. \]

6. La distribución uniforme discreta,

recoge un conjunto finito de valores que son resultan ser todos igualmente probables. Esta distribución describe, por ejemplo, el comportamiento aleatorio de una moneda, un dado, o una ruleta de casino equilibrados (sin sesgo).

\[ F(k;a,b)=\frac {[k]-a-1}{b-a+1} \]

7. La distribución hipergeométrica

(programada en r), mide la probabilidad de obtener x (0 ≤ x ≤ d) elementos de una determinada clase formada por d elementos pertenecientes a una población de N elementos, tomando una muestra de n elementos de la población sin reemplazo.

sea

\[P(X \le m) = \sum_{x=max[0,m(N-r)]}^{min(r,m)} \frac {\binom{r}{x}\binom{N-r}{m-x}}{\binom {N}{m}} \]

8. La distribución hipergeométrica no central de Fisher.

a veces llamada noncentral hypergeometric distribution, aparece por ejemplo, en problemas de muestreo sesgado, urnas con pesos distintos o en análisis de tablas de contingencia.

\[ P(X = x) = \frac{\binom{m1}{x} \binom{m2}{n-x}w^x}{P_{0}} \]

\[ P_0 = \sum_{y=x_{min}}^{x_{max}} \binom{m1}{y}\binom{m2}{n-y}w^y \]

9. La distribución hipergeométrica no central de Wallenius.

es otra variante del muestreo sesgado sin reemplazo. La diferencia con la de Fisher es que Wallenius modela la extracción secuencial con probabilidades ponderadas en cada paso, mientras que Fisher modela el resultado final directamente.

\[ \binom{m1}{x}\binom{m2}{n-x}\int_{0}^{1}(1-t^{w/D})^x(1-t^{1/D})^{n-x}dt \]

donde D = \(w(m1-x)+(m2-(n-x))\)

Definidas sobre un dominio infinito

10. La distribución Binomial Negativa o distribución de Pascal

(programada en r), que describe el número de ensayos de Bernoulli independientes necesarios para conseguir n éxitos, dada una probabilidad individual de éxito p constante.sea \[P(X \le n) = \sum_{x=r}^{\infty} \binom{x-1}{r-1} p^r q^{x-r}\]

11. La distribución Geométrica,

describe el número de intentos necesarios hasta conseguir el primer éxito.

\[P(X \le m) = \sum_{x=1}^{\infty} \binom{x-1}{1-1} p^1 q^{x-1}\]

12. La distribución Beta-Binomial negativa,

describe el número de experimentos del tipo «sí/no» necesarios para conseguir n éxitos, cuando la probabilidad de éxito de cada uno de los intentos está distribuida de acuerdo con una beta.

\[P(X = x) = \binom{x + r - 1}{x} \frac{B(r + \alpha, x + \beta)}{B(\alpha, \beta)}\]

donde B es la función beta de Euler.

13. La distribución Binomial Negativa Extendida.

\[P(X = x) = \binom{x + r - 1}{x} p^r (1 - p)^x h(x)\]

14. La distribución de Boltzmann,

importante en mecánica estadística, que describe la ocupación de los niveles de energía discretos en un sistema en equilibrio térmico.

\[ P(x) = \frac{e^{-\epsilon_j/kT }} {\sum_{j=1}^M e^{-\epsilon_j/kT}}\]

15. La distribución de Gibbs.

\[P(x) = \frac{e^{-E(x)/T}}{Z}\]

E(x) es la energía del estado T es la temperatura Z = es la función de partición (normalización)

16. La distribución Elíptica Asimétrica.

No tiene una forma cerrada universal, pero la típica densidad en \(\mathbb{R}^n\), es:

\[f(x) \propto |\Sigma|^{-1/2} g\left((x - \mu)^T \Sigma^{-1} (x - \mu)\right)\]

donde g es una función generadora de forma, y Σ no tiene por qué ser simétrica.

17. La distribución Fractal Parabólica.

No tiene una forma estandarizada universal, pero puedes definirla de forma paramétrica:

\[f(x) \propto (1 - |x|^\alpha)^\beta, \quad |x| < 1\] donde \(\alpha , \beta > 0\), Suele usarse en teoría de caos.

18. La distribución Hipergeométrica Extendida.

\[P(X = x) = \frac{\binom{r}{x} \binom{N - r}{n - x}}{\binom{N}{n}} \cdot \theta^x\]

donde \(\theta\) es un parámetro de afinidad.

19. La distribución Logarítmica (log-series).

\[P(X = x) = -\frac{1}{\ln(1 - p)} \cdot \frac{p^x}{x}, \quad x = 1, 2, 3, \dots\]

20. La distribución Logarítmica Generalizada.

\[P(X = x) = \frac{-1}{\ln(1 - \theta^\beta)} \cdot \frac{\theta^{x\beta}}{x}, \quad 0 < \theta < 1, \beta > 0\]

21. La distribución de Poisson

describe el número de eventos individuales que ocurren en un contexto entendible como una UNIDAD, pudiendo ser tiempo, área o concepto. (programada en r)

\[P(X \le \infty) = \sum_{x=0}^{\infty}\frac{e^ {-\lambda}*\lambda^x}{x!} \] Existen diversas variantes como la distribución de Poisson desplazada, la hiperdistribución de Poisson, la distribución binomial de Poisson y la distribución de Conway-Maxwell-Poisson, entre otras.

22. La distribución de Polya-Eggenberger.

\[ =\binom{n}{x} \frac{B(x+\alpha,n-x+\beta)}{B(\alpha,\beta)} \] donde \(B(\alpha,\beta)\) es la función BETA

23. La distribución Skellam,

describe la diferencia de dos variables aleatorias independientes con distribuciones de Poisson de distinto valor esperado.

\[P(Z = k) = e^{-(\lambda_1 + \lambda_2)} \left( \frac{\lambda_1}{\lambda_2} \right)^{k/2} I_{|k|}\left( 2\sqrt{\lambda_1 \lambda_2} \right)\] donde:

\(I_{|k|}\)(⋅) es la función de Bessel modificada de primera especie y orden k, \(\lambda_1, \lambda_2 >0\) son los parámetros de las distribuciones de Poisson originales.

24. La distribución de Yule-Simon.

\[P(k) = \rho \cdot \frac{\Gamma(k)\Gamma(\rho + 1)}{\Gamma(k + \rho + 1)}, \quad k \in \mathbb{N},\; k \geq 1\] donde \(\rho\) es un parámetro de forma

25. La distribución Zeta (Zipf),

utiliza la función zeta de Riemman para asignar una probabilidad a cada número natural.

\[P(k) = \frac{1}{\zeta(s)} \cdot \frac{1}{k^s}, \quad k = 1, 2, 3, \ldots\]

donde - \(\zeta(s)=\sum^\infty_{n=1}\frac{1}{n^2}\) es la función zeta de Reimann - \(s\) es la forma de la distribución

Tipos de distribuciones de variable continua

Distribuciones definidas en un intervalo acotado

26. La distribución arcoseno, definida en el intervalo [a,b].

es un caso especial de la distribución Beta con parámetros \(\alpha = \beta = 1/2\), pero trasladada y escalada al intervalo [a,b]

sea \(X \sim Arcoseno (a,b)\), entonces

\[ f(x; a,b) = \begin{cases} \dfrac{1}{\pi \sqrt{(x-a)(b-x)}} & \text{si } a < x < b, \\[6pt] 0 & \text{en otro caso}. \end{cases}\]

27. La distribución beta (programada en r),

se define en el intervalo [0,1], que es útil a la hora de estimar probabilidades.

\[ F(1)=P(X \le 1) = \int_{0}^{1} \frac{\Gamma(a+b)}{\Gamma(a) \Gamma(b)} x^{a-1}(1-x)^{b-1}\]

28. La distribución del coseno alzado, sobre el intervalo [μ-s,μ+s].

Esta distribución se utiliza como alternativa suave a la uniforme, y aparece en problemas de teoría de probabilidad y procesamiento de señales.

\[f(x;\mu,s) = \begin{cases} \dfrac{1}{2s}\left[ 1 + \cos\!\left( \dfrac{\pi (x-\mu)}{s} \right) \right], & \mu - s \leq x \leq \mu + s, \\[8pt] 0, & \text{en otro caso}. \end{cases}\]

29. La distribución degenerada en x0,

en la que X toma el valor x0 con probabilidad 1. Puede ser considerada tanto una distribución discreta como continua. explicada en punto 5.

30. La distribución de Irwin-Hall o distribución de la suma uniforme,

es la distribución correspondiente a la suma de n variables aleatorias con distribución Uniforme(0,1).

Sea

\[ X = \sum^n_{i=1} U_i,\: donde\: U_i\sim Uniform(0,1)\: i.i.d.\] Entonces \(X \sim Irwin-Hall(n)\), válido en el intervalo \([0,n]\) \[f(x; n) = \begin{cases} \dfrac{1}{2 (n-1)!} \displaystyle\sum_{k=0}^{\lfloor x \rfloor} (-1)^k \binom{n}{k}\,(x-k)^{\,n-1}, & 0 \leq x \leq n, \\[12pt] 0, & \text{en otro caso}. \end{cases}\]

31. La distribución de Kent, definida sobre la superficie de una esfera unitaria.

También llamada distribución normal en la esfera o Fisher–Bingham en 5 parámetro, es una distribución de probabilidad definida en la esfera unitaria bidimensional \(S^2 \subset \Re^3\).

Definición: Sea un punto en la esfera representado por un vector unitario

\[ x =(x_1,x_2,x_3)^\top \:,\: ||x|| =1 \]

entonces

\[ f(x; \kappa, \beta, \boldsymbol{\gamma}_1, \boldsymbol{\gamma}_2, \boldsymbol{\gamma}_3) =c(\kappa, \beta) \,\exp\!\left( \kappa \, \boldsymbol{\gamma}_1^\top \mathbf{x} + \beta \big[ (\boldsymbol{\gamma}_2^\top \mathbf{x})^2 - (\boldsymbol{\gamma}_3^\top \mathbf{x})^2 \big]\right),\]

donde

  • \(\kappa \ge\ 0:\) parámetro de concentración alrededor de \(\gamma_1\)

  • \(\beta \ge 0 :\) parámetro de ovalidad (aplana la distribución en dirección de \(\gamma_2, \gamma_3\)).

  • \(\gamma_1,\gamma_2,\gamma_3:\) base ortonormal en \(\Re^3\)

su constante de normalización es

\[ c(\kappa, \beta) =\frac{1}{2\pi \, {}_1F_1\!\left(\tfrac{1}{2}, \tfrac{3}{2}, 2\beta\right)} \,e^{-\kappa}, \]

con \(F_1(a,b,z))\) función hipergeométrica confluente

32. La distribución de Kumaraswamy, tan versátil como la beta, pero con FDC y FDP más simples.

  • La distribución logarítmica continua (programada en r).

  • La distribución logit-normal en (0, 1).

  • La distribución normal truncada, sobre el intervalo [a, b].

  • La distribución recíproca, un tipo de distribución inversa.

  • La distribución triangular, definida en [a, b], de la cual un caso particular es la distribución de la suma de dos variables independientes uniformemente distribuidas (la convolución de dos distribuciones uniformes).

  • La distribución uniforme continua (programada en r), definida en el intervalo cerrado [a, b], en el que la densidad de probabilidad es constante.

  • La distribución rectangular es el caso particular en el intervalo [-1/2, 1/2].

  • La distribución U-cuadrática, definida en [a, b], utilizada para modelar procesos bimodales simétricos.

  • La distribución von Mises, también llamada distribución normal circular o distribución Tikhonov, definida sobre el círculo unitario.

  • La distribución von Mises-Fisher, generalización de la anterior a una esfera N-dimensional.

  • La distribución semicircular de Wigner, importante en el estudio de las matrices aleatorias.

Definidas en un intervalo semi-infinito, usualmente [0,∞)

  • La distribución beta prima.

  • La distribución de Birnbaum-Saunders, también llamada distribución de resistencia a la fatiga de materiales, utilizada para modelar tiempos de fallo.

  • La distribución chi (programada en r),

\[ F(\infty ;k)=P(X \le \infty) = \int_{0}^{\infty} \frac {x^{k-1}e^{-x^2/2}}{2^{k/2}\Gamma(k/2)}\]

  • La distribución chi no central.

  • La distribución χ² o distribución de Pearson, que es la suma de cuadrados de n variables aleatorias independientes gaussianas. Es un caso especial de la gamma, utilizada en problemas de bondad de ajuste.

    \[ F(\infty)=P(X \le \infty) = \int_{0}^{\infty} \frac {(\frac{1}{2})^{k/2}}{\Gamma(k/2) }x^{\frac{k}{2}-1}e^{-x^2/2}\]

  • La distribución chi-cuadrada inversa.

  • La distribución chi-cuadrada inversa escalada.

  • La distribución chi-cuadrada no central.

  • La distribución de Dagum.

  • La distribución exponencial (programada en r), que describe el tiempo entre dos eventos consecutivos en un proceso sin - memoria.

\[F(\infty) = P(x \le \infty) = \int_0^\infty \frac{1}{\beta}e^{-\frac{x}{\beta}}\]

  • La distribución F (programada en r),es la razón entre dos variables independientes. Se utiliza, entre otros usos, para realizar análisis de varianza por medio del test F.

\[ F = \frac{\chi^2(\nu_1)/\nu_1}{\chi^2(\nu_2)/\nu_2}\] donde

\[ F(\infty)=P(X \le \infty)=\int_{0}^{\infty}\frac{\Gamma(\frac{\nu_1+\nu_2}{2})}{\Gamma(\frac{\nu_1}{2}) \Gamma(\frac{\nu_2}{2})} (\frac{\nu_1}{\nu_2})^\frac{\nu_1}{2} \frac{x^\frac{\nu_1-2}{2}}{(1+\frac {\nu_1x}{\nu_2})^\frac{\nu_1+\nu_2}{2}}\]

  • La distribución F no central.

  • La distribución de Fréchet.

  • La distribución gamma, que describe el tiempo necesario para que sucedan n repeticiones de un evento en un proceso sin memoria.

  • La distribución de Erlang, caso especial de la gamma con un parámetro k entero, desarrollada para predecir tiempos de espera en sistemas de líneas de espera.

  • La distribución gamma inversa (programada en r),.

  • La distribución gamma-Gompertz, que se utiliza en modelos para estimar la esperanza de vida.

  • La distribución de Gompertz.

  • La distribución de Gompertz desplazada.

  • La distribución de Gumbel tipo-2.

  • La distribución de Lévy.

Distribuciones en las que el logaritmo de una variable aleatoria está distribuido conforme a una distribución estándar:

  • La distribución log-Cauchy.
  • La distribución log-gamma.
  • La distribución log-Laplace.
  • La distribución log-logistic.
  • La distribución log-normal.
  • La distribución de Mittag-Leffler.
  • La distribución de Nakagami.

Variantes de la distribución normal o de Gauss:

  • La distribución normal pleglada.

  • La distribución semi normal.

  • La distribución de Gauss inversa, también conocida como distribución de Wald.

  • La distribución de Pareto

  • La distribución de Pareto generalizada.

  • La distribución tipo III de Pearson.

  • La distribución por fases bi-exponencial,comúnmente usada en farmacocinética.

  • La distribución por fases bi-Weibull.

  • La distribución de Rayleigh.

  • La distribución de mezcla de Rayleigh.

  • La distribución de Rice.

  • La distribución T² de Hotelling.

  • La distribución de Weibull o distribución de Rosin-Rammler, para describir la distribución de tamaños de determinadas partículas.

  • La distribución Z de Fisher.

  • La distribución de Maxwell-Boltzmann.

Definidas en la recta real completa

  • La distribución de Behrens-Fisher, que surge en el problema de Behrens-Fisher.

  • La distribución de Cauchy, un ejemplo de distribución que no tiene expectativa ni varianza. En física se le llama función de Lorentz, y se asocia a varios procesos.

  • La distribución de Chernoff.

  • La distribución estable o distribución asimétrica alfa-estable de Lévy, es una familia de distribuciones usadas e multitud de campos. Las distribuciones normal, de Cauchy, de Holtsmark, de Landau y de Lévy pertenecen a esta familia.

  • La distribución estable geométrica.

  • La distribución de Fisher-Tippett o distribución del valor extremo generalizada.

  • La distribución de Gumbel o log-Weibull, caso especial de la Fisher-Tippett.

  • La distribución de Gumbel tipo-1.

  • La distribución de Holtsmark, ejemplo de una distribución con expectativa finita pero varianza infinita.

  • La distribución hiperbólica.

  • La distribución secante hiperbólica.

  • La distribución SU de Johnson.

  • La distribución de Landau.

  • La distribución de Laplace.

  • La distribución de Linnik.

  • La distribución logística, descrita por la función logística.

  • La distribución logística generalizada.

  • La distribución map-Airy.

  • La distribución normal, también llamada distribución gaussiana o campana de Gauss. Está muy presente en multitud de fenómenos naturales debido al teorema del límite central: toda variable aleatoria que se pueda modelar como la suma de varias variables independientes e idénticamente distribuidas con expectativa y varianza finita, es aproximadamente normal.

  • La distribución normal generalizada.

  • La distribución normal asimétrica.

  • La distribución gaussiana exponencialmente modificada, la convolución de una normal con una exponencial.

  • La distribución normal-exponencial-gamma.

  • La distribución gaussiana menos exponencial es la convolución de una distribución normal con una distribución exponencial (negativa).

  • La distribución de Voigt, o perfil de Voigt, es la convolución de una distribución normal y una Cauchy. Se utiliza principalmente en espectroscopía.

  • La distribución tipo IV de Pearson.

  • La distribución t de Student, útil para estimar medias desconocidas de una población gaussiana.

  • La distribución t no central.

Definidas en un dominio variable

  • La distribución de Fisher-Tippett o distribución del valor extremo generalizada, puede estar definida en la recta real completa o en unintervalo acotado, dependiendo de sus parámetros.

  • La distribución de Pareto generalizada está definida en un dominio que puede estar acotado inferiormente o acotado por ambos extremos.

  • La distribución lambda de Tukey, puede estar definida en la recta real completa o en un intervalo acotado, dependiendo de sus parámetros.

  • La distribución de Wakeby.

Distribuciones mixtas discreta/continua

  • La distribución gaussiana rectificada, es una distribución normal en la que los valores negativos son sustituidos por un valor discreto en cero.

Distribuciones multivariable

  • La distribución de Dirichlet, generalización de la distribución beta.

  • La fórmula de muestreo de Ewens o distribución multivariante de Ewens, es la distribución de probabilidad del conjunto de todas las particiones de un entero n, utilizada en el análisis genético de poblaciones.

  • El modelo de Balding-Nichols, utilizado en el análisis genético de poblaciones.

  • La distribución multinomial, generalización de la distribución binomial.

  • La d1istribución normal multivariante, generalización de la distribución normal.

  • La distribución multinomial negativa, generalización de la distribución binomial negativa.

  • La distribución log-gamma generalizada multivariante.

Distribuciones matriciales

  • La distribución de Wishart
  • La distribución de Wishart inversa
  • La distribución normal matricial
  • La distribución t matricial