1. Distribución geométrica.

La distribución geométrica modela el número de ensayos independientes de tipo Bernoulli (con éxito o fracaso) que se necesitan hasta obtener el primer éxito.

En la distribución geométrica, la variable aleatoria X puede definirse de dos maneras: como el número de ensayos hasta obtener el primer éxito, donde los valores posibles son 1,2,3,…, o como el número de fracasos antes del primer éxito, donde los valores posibles son 0,1,2,…,. Ambas definiciones son equivalentes y se diferencian únicamente en una unidad, ya que contar ensayos incluye el intento exitoso mientras que contar fracasos no lo hace, cumpliéndose que Xfracasos= Xensayos − 1.

Variable aleatoria:

X= ensayos o fracasos antes del primer éxito

Función de probabilidad:

La función de probabilidad de la distribución geométrica es:

\[ P(X = x) = f(x) = (1-p)^{x-1} \, p, \quad x = 1,2,3,\ldots \]

Función de distribución acumulada:

Cuando X cuenta el numero de ensayos hasta el primer éxito. \[ F(x) = 1 - (1-p)^x, \quad x=1,2,3,\dots \]

Cuando X cuenta el numero de fallos hasta el primer éxito: \[ F(x) = 1 - (1-p)^{x+1}, \quad x=0,1,2,\dots \]

Esperanza y Varianza:

Cuando (X = número de ensayos hasta el primer éxito):

\[ \mathrm{E}(X) = \frac{1}{p}, \qquad \mathrm{V}(X) = \frac{1-p}{p^2} \]

Cuando (X = número de fracasos antes del primer éxito):

\[ \mathrm{E}(X) = \frac{1-p}{p}, \qquad \mathrm{V}(X) = \frac{1-p}{p^2} \]

Ejemplo:

Lanza una moneda hasta que salga cara.

La probabilidad de éxito (cara) en cada lanzamiento es p=0.5

Si definimos XXX como el número de ensayos hasta el primer éxito:

P(X=1)=(1−0.5)^0(0.5)=0.5 → cara en el primer lanzamiento.

P(X=2)=(1−0.5)^1(0.5)=0.25 → sello en el primero y cara en el segundo.

P(X=3)=(1−0.5)^2(0.5)=0.125 → dos sellos y luego una cara.

\[ \mathrm{E}(X) = \frac{1}{0.5}=2,\qquad \mathrm{V}(X) = \frac{1-0.5}{0.5^2}=2 \]
En promedio, se necesitan 2 lanzamientos para obtener la primera cara.

2. Distribución Binomial negativa.

Es una distribución de probabilidad discreta que modela el número de fracasos antes de conseguir el r-ésimo éxito en una secuencia de ensayos de Bernoulli independientes, cada uno con probabilidad de éxito p.

Variable aleatoria:

X = número de fracasos antes de obtener el r-ésimo éxito.

Función de probabilidad:`

\[ f(x) = \binom{x + r - 1}{r - 1} \, p^r (1-p)^x, \quad x = 0,1,2,\dots \]

Función de distribución acumulada:

\[ F(x) = \sum_{k=0}^{x} \binom{k+r-1}{r-1} \, p^r (1-p)^k, \quad x=0,1,2,\dots \]

Esperanza:

\[ \mathrm{E}(X) = \frac{r(1-p)}{p} \]

Varianza:

\[ \mathrm{V}(X) = \frac{r(1-p)}{p^2} \]

Ejemplo:

Lanzamos una moneda justa (p=0.5) y queremos obtener 3 caras (r=3). Se calcularán las probabilidades de tener de 0 hasta 10 fracasos.

##     X           f         F esperanza varianza
## 1   0 0.125000000 0.1250000         3        6
## 2   1 0.187500000 0.3125000         3        6
## 3   2 0.187500000 0.5000000         3        6
## 4   3 0.156250000 0.6562500         3        6
## 5   4 0.117187500 0.7734375         3        6
## 6   5 0.082031250 0.8554688         3        6
## 7   6 0.054687500 0.9101562         3        6
## 8   7 0.035156250 0.9453125         3        6
## 9   8 0.021972656 0.9672852         3        6
## 10  9 0.013427734 0.9807129         3        6
## 11 10 0.008056641 0.9887695         3        6

3. Distribución de Poisson.

Describe el número de veces que ocurre un evento en un intervalo de tiempo o espacio fijo, bajo ciertas condiciones. λ>0 es el parámetro de la distribución (número esperado de eventos en un intervalo).

Variable aleatoria:

X = número de eventos que ocurren en un intervalo específico (de tiempo, espacio, área, etc.)

Función de probabilidad:

\[ f(x) = P(X = x) = \frac{e^{-\lambda}\,\lambda^x}{x!}, \quad x = 0,1,2,\dots \]

Función de distribución acumulada:

\[ F(x) = P(X \leq x) = \sum_{k=0}^{x} \frac{e^{-\lambda}\,\lambda^k}{k!}, \quad x = 0,1,2,\dots \]

Esperanza:

\[ \mathrm{E}(X) = \lambda \]

Varianza:

\[ \mathrm{V}(X) = \lambda \]

Ejemplo:

Un centro de llamadas recibe en promedio 5 llamadas por hora (λ=5). Queremos calcular la probabilidad de recibir exactamente 3 llamadas en una hora.

##     X           f           F esperanza varianza
## 1   0 0.006737947 0.006737947         5        5
## 2   1 0.033689735 0.040427682         5        5
## 3   2 0.084224337 0.124652019         5        5
## 4   3 0.140373896 0.265025915         5        5
## 5   4 0.175467370 0.440493285         5        5
## 6   5 0.175467370 0.615960655         5        5
## 7   6 0.146222808 0.762183463         5        5
## 8   7 0.104444863 0.866628326         5        5
## 9   8 0.065278039 0.931906365         5        5
## 10  9 0.036265577 0.968171943         5        5
## 11 10 0.018132789 0.986304731         5        5

4. Distribucion Uniforme Discreta.

Es una distribución de probabilidad discreta en la que todos los valores posibles de la variable aleatoria tienen la misma probabilidad de ocurrir.

Variable aleatoria:

X= posibles valores que pueden ocurrir, todos con la misma probabilidad

Función de probabilidad:

\[ f(x) = P(X = x) = \frac{1}{n}, \quad x = 1,2,3,\dots,n \]

Función de distribución acumulada:

\[ F(x) = P(X \leq x) = \frac{\lfloor x \rfloor}{n}, \quad x = 1,2,3,\dots,n \]

Esperanza:

\[ \mathrm{E}(X) = \frac{n+1}{2} \]

Varianza:

\[ \mathrm{V}(X) = \frac{n^2 - 1}{12} \]

Ejemplo:

Se lanza un dado justo. Valores posibles: X =1,2,3,4,5,6 Cada valor tiene igual probabilidad: 1/6

##   X         f         F esperanza varianza
## 1 1 0.1666667 0.1666667       3.5 2.916667
## 2 2 0.1666667 0.3333333       3.5 2.916667
## 3 3 0.1666667 0.5000000       3.5 2.916667
## 4 4 0.1666667 0.6666667       3.5 2.916667
## 5 5 0.1666667 0.8333333       3.5 2.916667
## 6 6 0.1666667 1.0000000       3.5 2.916667