1 Introducción

Las distribuciones de probabilidad discretas constituyen una herramienta fundamental en la estadística para modelar fenómenos aleatorios en los que la variable de interés toma valores contables o finitos.

Una variable aleatoria discreta \(X\) asigna valores numéricos a los resultados de un experimento aleatorio, y su comportamiento se describe mediante una función de probabilidad, la cual indica la probabilidad asociada a cada uno de sus posibles valores.

Estas distribuciones permiten analizar situaciones reales como el número de éxitos en varios ensayos, la cantidad de eventos en un intervalo de tiempo o la selección de elementos de una población finita.

En esta sección se estudian algunas de las distribuciones discretas más importantes, tales como la uniforme discreta, la binomial, la Poisson y la hipergeométrica, abordando tanto sus fundamentos teóricos como su implementación computacional en R.

El objetivo es comprender no solo la formulación matemática de cada modelo, sino también su interpretación y aplicación en problemas reales.


2 Distribución Uniforme Discreta

La distribución uniforme discreta es una distribución de probabilidad que describe situaciones en las que un conjunto finito de resultados posibles tiene la misma probabilidad de ocurrencia.

Es ampliamente utilizada para modelar escenarios de equiprobabilidad, como juegos de azar, procesos de selección aleatoria y generación de números aleatorios.

2.1 Definición

Sea \(X\) una variable aleatoria discreta definida sobre el conjunto:

\[ \{a, a+1, \dots, b\} \]

Se dice que \(X\) sigue una distribución uniforme discreta, denotada por:

\[ X \sim U_d(a,b) \]

si su función de probabilidad está dada por:

\[ P(X = x) = \frac{1}{b - a + 1}, \quad x = a, a+1, \dots, b \]

donde:

  • \(a\): valor mínimo
  • \(b\): valor máximo
  • \(n = b - a + 1\): número total de valores posibles

Cada valor posible de la variable aleatoria tiene la misma probabilidad de ocurrir.No existe preferencia por ningún resultado en particular.

2.2 Ejemplo: Lanzamiento de un dado

2.2.1 Definición de parámetros

\[ a = 1 \quad (\text{valor mínimo}) \]

\[ b = 6 \quad (\text{valor máximo}) \]

\[ n = b - a + 1 = 6 \quad (\text{número de valores posibles}) \]

2.2.2 Sustitución en la función de probabilidad

\[ P(X = x) = \frac{1}{6}, \quad x = 1,2,3,4,5,6 \]

2.2.3 Esperanza

\[ E(X) = \frac{a+b}{2} = \frac{1+6}{2} = 3.5 \]

2.2.4 Varianza

\[ Var(X) = \frac{(b-a+1)^2 -1}{12} = \frac{6^2 -1}{12} = \frac{36 -1}{12} = \frac{35}{12} \approx 2.9167 \]

2.2.5 Desviación estándar

\[ \sigma = \sqrt{Var(X)} = \sqrt{\frac{35}{12}} \approx 1.7078 \]

2.2.6 Implementación en R

# Parámetros
a <- 1
b <- 6

# Espacio muestral
x <- a:b

# Probabilidades
prob <- rep(1/(b - a + 1), length(x))

# Tabla de distribución
data.frame(x, prob)
# Gráfica densidad de probabilidad
barplot(prob, names.arg = x,
        main = "Distribución Uniforme",
        xlab = "Valores",
        ylab = "Probabilidad")

2.3 ¿En qué situaciones se usa?

  • Juegos de azar: lanzar un dado justo (cada cara tiene probabilidad \(1/6\)) o una moneda (cara/sello) con probabilidad \((1/2)\).

  • Selección aleatoria: seleccionar una carta al azar de una baraja (cada carta tiene probabilidad \(1/52\)).

  • Simulaciones informáticas: generar números enteros aleatorios dentro de un rango específico para modelar procesos.

  • Muestreo: elegir un empleado al azar de una lista de 100 personas para una encuesta, donde todos tienen \((1/100)\) de probabilidad de ser elegidos.

  • Ruletas: juegos donde cada número tiene la misma posibilidad de salir.


3 Distribución Binomial

Una distribución binomial es una distribución de probabilidad discreta que describe el número de éxitos en \(n\) ensayos independientes de un experimento aleatorio.

Cada ensayo tiene únicamente dos posibles resultados:

  • Éxito (con probabilidad \(p\))
  • Fracaso (con probabilidad \(1 - p\))

La variable aleatoria \(X\) representa el número de éxitos en los \(n\) ensayos.

3.1 Definición

Sea \(X \sim Binomial(n,p)\). Su función de probabilidad está dada por:

\[ P(X = x) = \binom{n}{x} p^x (1-p)^{n-x}, \quad x = 0,1,\dots,n \]

donde:

  • \(n\): número de ensayos
  • \(p\): probabilidad de éxito
  • \(x\): número de éxitos

3.2 Momentos

\[ E(X) = np \]

\[ Var(X) = \sigma^2 = np(1-p) \]

\[ \sigma = \sqrt{np(1-p)} \]

3.3 Interpretación de los momentos

  • \(E(X) = np\): representa el número promedio de éxitos en \(n\) ensayos.
  • \(Var(X) = np(1-p)\): mide la variabilidad en el número de éxitos.
  • \(\sigma\): indica cuánto se desvía típicamente el número de éxitos respecto a su media.

3.4 Forma alternativa de la varianza

\[ Var(X) = npq, \quad \text{donde } q = 1 - p \]

3.5 Propiedades adicionales

  • Si \(p\) es cercano a 0 o 1, la variabilidad disminuye.
  • La varianza es máxima cuando \(p = 0.5\).
  • La distribución es simétrica cuando \(p = 0.5\) y sesgada en otro caso.

3.6 Coeficiente de asimetría

\[ \gamma_1 = \frac{1 - 2p}{\sqrt{np(1-p)}} \]

3.7 Aproximación normal (muy importante)

Para valores grandes de \(n\), la distribución binomial puede aproximarse por una distribución normal:

\[ X \approx N(np, \, np(1-p)) \]

siempre que:

\[ np \geq 5 \quad \text{y} \quad n(1-p) \geq 5 \]

Visualización de la distribución binomial

# Configurar panel gráfico
par(mfrow = c(1,3))

# Ejemplo 1: Simétrica
n1 <- 10
p1 <- 0.5
x1 <- 0:n1
prob1 <- dbinom(x1, size = n1, prob = p1)

barplot(prob1,
        names.arg = x1,
        main = "Ejemplo 1: n=10, p=0.5",
        xlab = "Éxitos",
        ylab = "Probabilidad")

# Ejemplo 2: Sesgada (p pequeño)
n2 <- 10
p2 <- 0.2
x2 <- 0:n2
prob2 <- dbinom(x2, size = n2, prob = p2)

barplot(prob2,
        names.arg = x2,
        main = "Ejemplo 2: n=10, p=0.2",
        xlab = "Éxitos",
        ylab = "Probabilidad")

# Ejemplo 3: Mayor n
n3 <- 30
p3 <- 0.5
x3 <- 0:n3
prob3 <- dbinom(x3, size = n3, prob = p3)

barplot(prob3,
        names.arg = x3,
        main = "Ejemplo 3: n=30, p=0.5",
        xlab = "Éxitos",
        ylab = "Probabilidad")

# Restaurar configuración gráfica
par(mfrow = c(1,1))

Ejemplo 1: \(n = 10, \; p = 0.5\)
La distribución es aproximadamente simétrica alrededor de su media \(E(X) = np = 5\). Esto ocurre porque la probabilidad de éxito y fracaso es la misma, generando un balance en la distribución.

Ejemplo 2: \(n = 10, \; p = 0.2\)
La distribución presenta asimetría positiva (sesgo hacia la derecha). La mayoría de la probabilidad se concentra en valores pequeños de \(X\), ya que la probabilidad de éxito es baja.

Ejemplo 3: \(n = 30, \; p = 0.5\)
La distribución es más suave y concentrada alrededor de la media \(E(X) = 15\). A medida que aumenta \(n\), la distribución binomial se aproxima a una distribución normal, de acuerdo con el Teorema Central del Límite.

De manera que:

  • El parámetro \(p\) controla la forma (simetría o sesgo).
  • El parámetro \(n\) controla la dispersión y la suavidad de la distribución.
  • La distribución binomial puede aproximarse por una normal cuando \(n\) es grande y \(p\) no es extremo.

3.8 Ejemplo: Distribución Binomial

Imaginemos que un 80% de las personas han visto la final del último mundial de fútbol. Se seleccionan 4 amigos al azar.

¿Cuál es la probabilidad de que exactamente 3 de ellos hayan visto el partido?

3.8.1 Definición de la variable aleatoria

Sea \(X\) la variable aleatoria que representa el número de amigos (de un grupo de 4) que han visto el partido.

3.8.2 Identificación de la distribución

Dado que:

  • Se realizan \(n = 4\) ensayos
  • Cada ensayo tiene dos posibles resultados (ver o no ver el partido)
  • La probabilidad de éxito es constante \(p = 0.8\)
  • Los ensayos son independientes

Entonces:

\[ X \sim Binomial(n = 4, \, p = 0.8) \]

3.8.3 Definición de parámetros

\[ n = 4, \quad x = 3, \quad p = 0.8, \quad q = 1 - p = 0.2 \]

3.8.4 Modelo probabilístico

\[ P(X = 3) = \binom{4}{3} (0.8)^3 (0.2)^{1} \]


3.8.5 Cálculo teórico

\[ P(X = 3) = \binom{4}{3} (0.8)^3 (0.2)^{4-3} \]

\[ = \frac{4!}{3! \, 1!} (0.8)^3 (0.2) \]

\[ = \frac{24}{6} \cdot 0.512 \cdot 0.2 \]

\[ = 4 \cdot 0.1024 \]

\[ = 0.4096 \approx 0.41 \]

R/. la probabilidad de que 3 de ellos hayan visto es del 41%

3.8.6 Cálculo en R

# Parámetros
n <- 4
x <- 3
p <- 0.8

# Probabilidad binomial
dbinom(x, size = n, prob = p)
## [1] 0.4096

4 Distribución de Poisson

La distribución de Poisson es una distribución de probabilidad discreta que describe el número de veces que ocurre un evento en un intervalo fijo de tiempo, espacio o volumen.

Se utiliza cuando los eventos ocurren de manera aleatoria e independiente, y se desea modelar la frecuencia de ocurrencia en un intervalo dado.

4.1 Definición

Sea \(X\) una variable aleatoria. Se dice que:

\[ X \sim Poisson(\lambda) \]

si su función de probabilidad está dada por:

\[ P(X = x) = \frac{e^{-\lambda} \lambda^x}{x!}, \quad x = 0,1,2,\dots \]

donde:

  • \(x\): número de ocurrencias del evento
  • \(\lambda\): número promedio de ocurrencias en el intervalo
  • \(e \approx 2.71828\): constante de Euler

4.2 Supuestos del modelo

La distribución de Poisson es adecuada cuando:

  • Los eventos ocurren de forma independiente.
  • La tasa promedio \(\lambda\) es constante.
  • No pueden ocurrir dos eventos exactamente al mismo tiempo.
  • El número de eventos en un intervalo es proporcional a la longitud del intervalo.

4.3 Interpretación del parámetro

\[ \lambda = E(X) = Var(X) \]

El parámetro \(\lambda\) representa tanto el valor esperado como la varianza del número de eventos.

Ejemplo: función de masa de probabilidad de la distribución de Poisson

# Parámetro
lambda <- 3

# Valores posibles
x <- 0:15

# Función de probabilidad
prob <- dpois(x, lambda)

# Gráfica
barplot(prob,
        names.arg = x,
        main = "Distribución de Poisson (λ = 3)",
        xlab = "Número de eventos",
        ylab = "Probabilidad")

4.4 Ejemplo de aplicación

El director de una empresa de servicio público desea modelar la llegada de clientes. Se registró el número de clientes que llegan en intervalos de 15 minutos:

\[ 15,\;10,\;12,\;15,\;18,\;15,\;12,\;11,\;15,\;16,\;14,\;13, \] \[ 16,\;17,\;13,\;14,\;18,\;12,\;14,\;16,\;15,\;14,\;12 \]

4.4.1 Definición de la variable aleatoria

Sea \(X\) el número de clientes que llegan en un intervalo de 15 minutos.

4.4.2 Estimación del parámetro

\[ \lambda = \bar{x} = 14.08 \]

Esto indica que, en promedio, llegan 14.08 clientes cada 15 minutos.

# Datos
datos <- c(12,15,10,12,15,18,15,12,11,15,16,14,13,
           13,16,17,13,14,18,12,14,16,15,14,12)

# Estimación de lambda
lambda <- mean(datos)
lambda
## [1] 14.08

4.4.3 Identificación de la distribución

Dado que:

  • Se cuenta el número de eventos en un intervalo fijo
  • Los eventos son independientes
  • Existe una tasa promedio constante

Entonces:

\[ X \sim Poisson(\lambda = 14.08) \]

4.4.4 Modelo probabilístico

¿Cuál es la probabilidad de que lleguen exactamente 10 clientes en un intervalo de 15 minutos?

\[ P(X = 10) = \frac{e^{-14.08} (14.08)^{10}}{10!} = 0.06477348 \approx 0.065 \]

R/. La probabilidad de que en un intervalo de 15 minutos lleguen exactamente 10 clientes es aproximadamente:

\[ P(X = 10) \approx 0.0647 = 6.5\% \]

4.4.5 Cálculo en R

# Datos
datos <- c(12,15,10,12,15,18,15,12,11,15,16,14,13,
           13,16,17,13,14,18,12,14,16,15,14,12)

# Estimación de lambda
lambda <- mean(datos)
lambda
## [1] 14.08
# Probabilidad de exactamente 10 clientes
dpois(10, lambda)
## [1] 0.06477348

5 Distribución Hipergeométrica

La distribución hipergeométrica es una distribución de probabilidad discreta que describe el número de éxitos en una muestra extraída sin reemplazo de una población finita.

Se utiliza cuando los elementos no se devuelven a la población, por lo que las probabilidades cambian en cada extracción.

5.1 Definición

Sea \(X\) una variable aleatoria que representa el número de éxitos en una muestra de tamaño \(n\), extraída sin reemplazo de una población de tamaño \(N\), que contiene \(K\) elementos exitosos.

Se dice que:

\[ X \sim H(N, K, n) \]

y su función de probabilidad está dada por:

\[ P(X = x) = \frac{\binom{K}{x}\binom{N-K}{n-x}}{\binom{N}{n}}, \quad x = 0,1,\dots,n \]

5.2 Parámetros

  • \(N\): tamaño de la población
  • \(K\): número de éxitos en la población
  • \(n\): tamaño de la muestra
  • \(x\): número de éxitos en la muestra

5.3 Interpretación

  • A diferencia de la distribución binomial, no hay reemplazo.
  • Las probabilidades cambian en cada extracción.
  • Se utiliza en control de calidad, muestreo sin reemplazo y estudios poblacionales.

5.4 Momentos

\[ E(X) = n \cdot \frac{K}{N} \]

\[ Var(X) = n \cdot \frac{K}{N} \cdot \left(1 - \frac{K}{N}\right) \cdot \frac{N - n}{N - 1} \]

\[ \sigma = \sqrt{Var(X)} \]

5.5 Gráfica de algunos ejemplos de distribución hipergeométrica

Gráfica 1 En una fábrica hay 20 productos, 5 defectuosos. Se extraen 8 sin reemplazo.

x <- 0:8
prob1 <- dhyper(x, m = 5, n = 15, k = 8)

barplot(prob1,
        names.arg = x,
        main = "Distribución Hipergeométrica - Control de calidad",
        xlab = "Número de defectuosos en la muestra",
        ylab = "Probabilidad")

Gráfica 2

En un curso hay 30 estudiantes, 18 aprobaron. Se seleccionan 10 al azar.

x <- 0:10
prob3 <- dhyper(x, m = 18, n = 12, k = 10)

barplot(prob3,
        names.arg = x,
        main = "Distribución Hipergeométrica - Estudiantes",
        xlab = "Número de aprobados en la muestra",
        ylab = "Probabilidad")

5.6 Ejemplo: Control de calidad

De cada 20 piezas fabricadas por una máquina, 2 son defectuosas.Se seleccionan 15 piezas sin reemplazo. ¿Cuál es la probabilidad de que exactamente 1 pieza defectuosa esté en la muestra?

5.6.1 Definición de la variable aleatoria

Sea \(X\) el número de piezas defectuosas en la muestra de 15.

5.6.2 Identificación de la distribución

\[ X \sim H(N = 20, K = 2, n = 15) \]

Definición de parámetros

\[ N = 20, \quad K = 2, \quad n = 15, \quad x = 1 \]

5.6.3 Modelo probabilístico

\[ P(X = 1) = \frac{\binom{2}{1}\binom{18}{14}}{\binom{20}{15}} \]

\[ P(X = 1) = \frac{2 \cdot 3060}{15504} \approx 0.3947 \]

5.6.4 Interpretación

La probabilidad de encontrar exactamente una pieza defectuosa en la muestra es aproximadamente:

\[ P(X = 1) \approx 0.3947 = 39.47\% \]

5.6.5 Cálculo en R

# Parámetros
N <- 20
K <- 2
n <- 15
x <- 1

# Probabilidad hipergeométrica
dhyper(x, m = K, n = N - K, k = n)
## [1] 0.3947368

6 Recomendaciones

6.1 Uso de la probabilidad complemento

La probabilidad complemento se basa en que:

\[ P(A^c) = 1 - P(A) \]

En el contexto de variables aleatorias:

\[ P(X > k) = 1 - P(X \leq k) \]

Ejemplo de aplicación

Para calcular:

\[ P(X > 4) \]

es más eficiente usar el complemento:

\[ P(X > 4) = 1 - P(X \leq 4) \]

\[ = 1 - \left[ P(X=0) + P(X=1) + P(X=2) + P(X=3) + P(X=4) \right] \]

Forma general

\[ P(X > k) = 1 - \sum_{x=0}^{k} P(X = x) \]

Recomendaciones prácticas

  • Es preferible usar el complemento cuando la suma directa es larga o complicada.
  • Es especialmente útil en distribuciones discretas como la binomial y la de Poisson.
  • Reduce errores de cálculo al evitar múltiples sumas.

Cálculo en R

# Ejemplo binomial
n <- 10
p <- 0.5

# P(X > 4)
1 - pbinom(4, size = n, prob = p)
## [1] 0.6230469

6.2 Interpretación de expresiones comunes

En probabilidad, es fundamental traducir correctamente el lenguaje verbal a notación matemática.

A lo sumo / como máximo / menor o igual que

\[ P(X \leq x) \]

Ejemplo: \[ P(X \leq 3) \]

Por lo menos / como mínimo / mayor o igual que

\[ P(X \geq x) \]

Ejemplo: \[ P(X \geq 5) \]

Más que / estrictamente mayor

\[ P(X > x) \]

Ejemplo: \[ P(X > 4) \]

Menos que / estrictamente menor

\[ P(X < x) \]

Ejemplo: \[ P(X < 2) \]

Exactamente

\[ P(X = x) \]

Ejemplo: \[ P(X = 3) \]

Recomendación clave

  • “A lo sumo” incluye el valor
  • “Al menos” incluye el valor
  • “Más que” y “Menos que” no incluyen el valor
  • “Exactamente” indica un valor puntual

7 Referencias

  • Newbold, P., Carlson, W. L., & Thorne, B. M. (2008).
    Estadística para Administración y Economía.
    Madrid: Pearson Educación.

  • Wackerly, D. D., Mendenhall III, W., & Scheaffer, R. L. (2008).
    Estadística Matemática con Aplicaciones.
    México: Cengage Learning.

  • Martínez Bencardino, C. (2012).
    Estadística y Muestreo.
    Bogotá: Ecoe Ediciones.

  • Walpole, R. E., Myers, R. H., Myers, S. L., & Ye, K. (2007).
    Probabilidad y Estadística para Ingeniería y Ciencias (6ª ed.).
    México: Pearson Educación.