Variables aleatorias y distribuciones de probabilidad

Conceptos preliminares

Antes de definir variable aleatoria es necesario establecer conceptos y marcos donde ocurre la aleatoriedad.

Experimento aleatorio (\(\epsilon\))

Proceso definido cuyo resultado exacto no se puede conocer de antemano, incluso si se repite bajo las mismas condiciones iniciales. Los experimentos aleatorios no permiten predecir con certeza el resultado individual, pero sí el conjunto de resultados posibles.

Desde la probabilidad, un experimento aleatorio es una acción repetible cuyo resultado depende del azar, tal que:

  1. El conjunto de resultados posibles (espacio muestral) es conocido.

  2. Antes de realizarlo, no es posible determinar con certeza cuál resultado específico ocurrirá.

  3. Al repetirse un gran número de veces bajo condiciones idénticas, presenta regularidades estadísticas describibles mediante probabilidades.

Por lo tanto existe: incertidumbre individual, repetibilidad, estructura probabilística, no determinismo. Algunos ejemplos:

  • Lanzar una moneda y observar cara o sello.
  • Medir el tiempo de falla de una máquina.
  • Observar el número de defectos en un lote de producción.
  • Medir el tiempo entre llegadas de clientes a una caja.

Espacio muestral (\(\Omega\))

El espacio muestral es el conjunto de todos los resultados posibles de un experimento aleatorio. Ejemplos:

  • Si el experimento es lanzar una moneda una vez, entonces \(\Omega = \{\text{Cara, Sello} \}\) o \(\Omega = \{ \text{C, S} \}\).

  • Si el experimento es “observar el estado de una bomba de agua”, entonces \(\Omega = \{\text{Funcionando, En falla} \}\)

  • Si el experimento es lanzar la moneda dos veces, entonces \(\Omega = \{\text{(C, C), (C,S), (S, C), (S,S)} \}\)

  • Si el experimento es medir el tiempo de falla de una máquina, entonces \(\Omega = (0,\infty )\). Si se admite falla inmediata en el instante cero entonces \(\Omega = [0,\infty )\).

  • Si el experimento es medir el tiempo entre llegadas de clientes a una caja, entonces \(\Omega = (0,\infty )\), o \(\Omega = [0,\infty )\) si se permiten llegadas simultaneas.

Como se puede observar existen espacios muestrales finitos como en el caso del lanzamiento de una moneda una vez: \(\Omega = \{ \text{C, S} \}\); existes espacios muestrales infinitos, como el caso del tiempo entre llegadas de clientes \(\Omega = (0,\infty )\). Así mismo, espacios muestrales discretos y espacios muestrales continuos.

Evento (\(A,~B,~C...\))

Es cualquier subconjunto del espacio muestral \(\Omega\), \(A \subseteq \Omega\). Ejemplo:

En el experimento aleatorio del lanzamiento de un dado el espacio muestral \(\Omega\) está dado por \(\Omega= \{1,2,3,4,5,6\}\). Si se define al evento \(A\) “que salga un número par”, entonces \(A= \{2, 4, 6 \}\).

Espacio de probabilidad

Estructura matemática que define al experimento, dada por:

  1. \(\Omega\): el conjunto de resultados.

  2. \(\mathcal{F}\): una colección de eventos (técnicamente una \(\sigma\)-álgebra) a los que podemos asignarles probabilidad.

  3. \(P\): la medida de probabilidad que asigna un valor entre \(0\) y \(1\) a cada evento en \(\mathcal{F}\)

Variable aleatoria (V.A.)

A menudo, los resultados de un espacio muestral \(\Omega\) no son numéricos (ej. “Rojo”, “Éxito”, “Llegada de cliente”). Para poder hacer ingeniería y estadística, necesitamos traducir esos resultados a números reales.

Una V.A es una función matemática que asigna un valor numérico real a cada resultado de un experimento aleatorio.

Definición formal

Sea \(\Omega,~\mathcal{F},~P\) un espacio de probabilidad. Una variable aleatoria es una función:

\[X: \Omega \to \mathbb{R}\]

Tal que para cualquier número real \(x\), el conjunto \(\{\omega \in \Omega : X(\omega) \le x\}\) es un evento perteneciente a \(\mathcal{F}\).

¿Qué significa esto realmente?

  1. Es una Función, no un valor: \(X\) no “toma” valores; \(X\) es la regla de asignación. El valor numérico aparece solo cuando ocurre un resultado \(\omega\) en la realidad.

  2. Instrumento de Medición: imagina que \(\Omega\) es la realidad “cruda”. La V.A. es como un sensor que toma esa realidad y la convierte en una señal numérica procesable.

  3. La Condición de “Medibilidad”: la parte matemática de que el conjunto sea un evento en \(\mathcal{F}\) garantiza que podemos calcular la probabilidad de que \(X\) tome ciertos valores. Si no pudiéramos mapear los números de vuelta a eventos conocidos, no podríamos decir “la probabilidad de que el tiempo sea menor a 5 min es 0.8”.

Clasificación de las V.A.

V.A. Discretas.

Son aquellas cuyo rango es un conjunto finito o infinito numerable (ej. número de piezas defectuosas, número de clientes en fila). Su comportamiento se entiende a partir de la función de masa de probabilidad (distribución de probabilidad: herramienta que describe cómo se reparten las probabilidades entre los posibles valores de la V.A)

  • Función de Masa de Probabilidad (PMF): \(p(x_i) = P(X = x_i)\).

  • Condiciones:

      1. \(p(x_i) \ge 0\) para todo \(i\).
      1. \(\sum_{i} p(x_i) = 1\).

V.A Continuas.

Son aquellas que pueden tomar cualquier valor en un intervalo de números reales (ej. tiempo entre arribos, peso de una carga). Su comportamiento se entiende a partir de la función de densidad de probabilidad (distribución de probabilidad: herramienta que describe cómo se reparten las probabilidades entre los posibles valores de la V.A)

  • Función de Densidad de Probabilidad (PDF): \(f(x)\).

  • Condiciones:

    1. \(f(x) \ge 0\) para todo \(x\).
    2. \(\int_{-\infty}^{\infty} f(x) \,dx = 1\).
  • Probabilidad en un intervalo: \(P(a \le X \le b) = \int_{a}^{b} f(x) \,dx\).

Función de Distribución Acumulada (CDF)

La función de distribución acumulada (FDA o CDF, por sus siglas en inglés) de una variable aleatoria \(X\) se define como:

\[F(x) = P(X \le x)\]

CDF para V.A. discretas

Si \(X\) es una VA discreta, entonces:

\[F(x) = \sum_{x_i \le x} p(x_i)\]

\(F(x)\) es una función escalanoda, con saltos en los posibles valores de \(X\)

  • Para continuas:

CDF para V.A. contínuas

Si \(X\) es una VA contínua, entonces:

\[F(x) = \int_{-\infty}^{x} f(t)~dt\]

Propiedades clave:

  1. Es no decreciente.
  2. \(\lim_{x \to \infty} F(x) = 1\) y \(\lim_{x \to -\infty} F(x) = 0\).

Medida de tendencia y dispersión

Valor Esperado (Media, Esperanza matemática)

Sea \(X\) una variable aleatoria.

La media o valor esperado de \(X\) denotado por \(E[X]\) o \(\mu\) se define como el promedio teórico de los valores que puede tomar \(X\) ponderado por sus probabilidades.

Si \(X\) es una V.A. discreta, toma valores \(x_i\) con probabilidades \(P(X=x_i)\) el valor esperado se define como:

\[E[X] = \sum x_i~ P(X=x_i)\]

Si \(X\) es una V.A continua con función de densidad \(f_(x)\), el valor esperado se define como:

\[E[X] = \int_{-\infty}^{\infty} xf(x) \,dx\]

Varianza

La varianza de una V.A \(X\), denotada por \(Var(X)\) o \(\sigma^2\), mide qué tan dispersos están los valores de \(X\) alrededor de su media. Se define como:

\[ Var(X) = E[(X- \mu)^2] = E[X^2] - (E[X])^2\\ \mu= E[X] \]

Si \(X\) es una V.A. discreta toma valores \(x_i\) con probabilidades \(P(X=x_i)\) la varianza se define como:

\[ Var(X) = \sum_i (x_i - \mu)^2 P(X=x_i) \]

Si \(X\) es una V.A continua con función de densidad \(f_(x)\), el valor esperado se define como:

\[ Var(X) = \int_{-\infty}^{\infty} (x-\mu)^2 f(x)dx \]

Variables aleatorias discretas

Distribución Bernoulli

La Bernoulli es la distribución discreta más simple y la base de muchas otras (binomial, geométrica, binomial negativa, etc.). Modela un experimento aleatorio con solo dos resultados posibles: éxito o fracaso.

Definición

Sea \(\Omega, \mathcal{F}, P\) un espacio de probabilidad.

Una variable aleatoria discreta \(X\) tiene una distribución Bernoulli con parámetro \(p \in (0,1)\) si:

\[\begin{align} \Omega \rightarrow \{ 0,1\} &\text{~tal que}\\ \\ P(X=1) = p,~~~&P(X=0) = 1-p\\ \\ \end{align}\]

Se denota:

\[\begin{align} X \sim Bernoulli(p) \end{align}\]

Función de masa de probabilidad (pmf) \(f(x)\)

Si \(X \sim Bernoulli(p)\) su función de masa de probabilidad (pmf) está dada por:

\[ f(x) = p^x(1-p)^{(1-x)},~~x \in \{0,1\} \]

Función de distribución acumulada (CDF) \(F(x)\)

Caso 1: \(x<0\)

Como \(x \in \{0,1\}\) no existen valores menores que \(0\), por lo tanto.

\[ F(x) = 0 \]

Caso 2: \(0 \leq x <1\)

En este caso solo incluye el \(0\), por lo tanto.

\[ F(x) = P(X=0) = p^0(1-p)^{(1-0)} = 1-p \]

Caso 3: \(x \geq 1\)

\[\begin{align} F(x) &= P(X=0) + P (X=1)\\ F(x) &= (1-p) + p\\ F(x) &= 1 \end{align}\]

Teniendo en cuenta los tres casos:

\[ F(x) = \begin{cases} 0, & x < 0 \\ 1-p, & 0 \le x < 1 \\ 1 & \text{si } x \ge 1 \end{cases} \]

Valor esperado \(E[X]\)

Sea \(X\) una V.A. que sigue una distribución de probabilidad Bernoulli:

\[ X \sim Bernoulli(p) \]

Con \(f(x) = p^x(1-p)^{(1-x)}\), por definición, el valor esperado \(E[X]\) para una V.A. discreta se define como:

\[ E[X] = \sum x_i P(X=x_i) \]

Cómo \(X \in \{0,1 \}\) entonces:

\[\begin{align} E[X] = [0 \times P(X=0)] + [1 \times P(X=1)] \end{align}\]

Como \(P(X=0)=1-p\) y \(P(X=1)= p\), entonces:

\[\begin{align} E[X] = p \end{align}\]

Varianza \(Var[X]\)

Sea \(X\) una V.A. que sigue una distribución de probabilidad Bernoulli:

\[ X \sim Bernoulli(p) \]

Con \(f(x) = p^x(1-p)^{(1-x)}\), por definición, la varianza \(Var[X]\) para una V.A. discreta se define como:

\[ Var[X] = E[(X- E[X])^2] = E[X^2]- (E[X])^2 \]

Se conoce que \(E[X]= p\) y que \(X \in \{0,1 \}\), por lo que \(X^2=X\), por lo tanto:

\[\begin{align} Var[X] &= E[X^2]- (E[X])^2 \\ Var[X] &= E[X] - p^2 \\ Var[X] &= p-p^2 \\ Var[X] &= p(1-p) \end{align}\]

Distribución Binomial

La distribución Binomial es una generalización natural de la distribución Bernoulli. Modela el número de éxitos en \(n\) ensayos independientes, cada uno con probabilidad de éxito \(p\).

Es la suma de \(n\) variables Bernoulli independientes.

Definición

Sea \(\Omega, \mathcal{F}, P\) un espacio de probabilidad.

Sea \(X_1, X_2,..., X_n\) una colección de V.A. independientes tales que:

\[ X_i \sim Bernoulli(p) \]

Se define \(X\) como:

\[ X= \sum_{i=1}^n X_i \]

Entonces \(X\) tiene una distribución Binomial con parámetros \(n\) y \(p\) si:

\[ P(X=k) = \binom{n}{k} p^k(1-p)^{n-k};~~ k\in\{ 0,1,..,n\} \] \[ \binom{n}{k} = \frac{n!}{k!(n-k)!} \]

Se denota:

\[ X \sim Binomial(n,p) \]

Función de masa de probabilidad (pmf) \(f(k)\)

Si \(X\) es una V.A tal que \(X\sim Binomial(n,p)\), entonces la función de masa de probabilidad \(f(k)\) está dada por:

\[ f(k)= \binom{n}{k}p^k(1-p)^{n-k};~~ k=0,1,...,n \]

Donde:

\[ \binom{n}{k} = \frac{n!}{k!(n-k)!} \]

Representa el número de tener \(k\) éxitos en \(n\) ensayos.

Función de distribución acumulada (CDF) \(F(x)\)

Por definición \(F(X) = P(X \leq x)\), por lo tanto:

Caso 1: \(x<0\)

\[ F(x) = 0 \]

Caso 2 \(0 \leq x < n\)

\[ F(x) = \sum_{k=0}^{x} \binom{n}{k} p^k(1-p)^{n-k} \]

Caso 3: \(x\geq n\)

\[ F(x) = 1 \]

Valor esperado \(E[X]\)

Sea:

\[ X = \sum_{i=1}^n X_i \]

Donde \(X_i \sim Bernoulli(p)\), por lo que \(X\sim Binomial(n,p)\), entonces:

\[ E[X] = E \left[ \sum_{i=1}^n X_i\right] \]

Por linealidad de la esperanza \(E[X]\):

\[ E[X] = E \left[ \sum_{i=1}^n X_i\right] = \sum_{i=1}^n E[X_i] \]

Como \(X_i \sim Bernoulli(p)\), su \(E[X]=p\), por lo tanto

\[ E[X] = E \left[ \sum_{i=1}^n X_i\right] = \sum_{i=1}^n E[X_i] = \sum_{i=1}^n p = np \]

\[ E[X]=np \]

Varianza \(Var[X]\)

Se sabe que:

\[ Var[X] = Var \left[ \sum_{i=1}^n Xi \right] \]

Como \(X_i\) son independientes, entonces:

\[ Var[X] = Var \left[ \sum_{i=1}^n Xi \right] = \sum_{i=1}^n Var[X_i] \]

Se conoce que:

\[ Var[X_i] = p(1-p) \]

Entonces:

\[ Var[X] = Var \left[ \sum_{i=1}^n Xi \right] = \sum_{i=1}^n Var[X_i] = \sum_{i=1}^n p(1-p) = np(1-p) \]

\[ Var[X] = np(1-p) \]

Ejemplo 1

Una fábrica produce tornillos industriales. Históricamente se ha determinado que el \(8\%\) de los tornillos producidos son defectuosos. Se selecciona una muestra aleatoria de \(20\) tornillos, suponiendo independencia entre ellos. Se solicita:

  1. Calcular la probabilidad de que exactamente 2 tornillos sean defectuosos.
  2. Calcular la probabilidad de que a lo sumo 3 tornillos sean defectuosos.
  3. Determinar el valor esperado y la varianza.
  4. Si el lote es rechazado cuando hay 4 o más defectuosos, calcule la probabilidad de que el lote sea rechazado.

Solución

Datos:

  • \(p=0.08\)
  • \(n=20\)

Se define:

\[ X: \text{número de tornillos defectuosos en la muestra} \] Cada tornillo puede modelarse como:

\[ X_i \sim Bernoulli(p=0.08) \]

Como son \(20\) inspecciones independientes, entonces:

\[ X = \sum_{i=1}^{20} X_i \]

Por lo que:

\[ X \sim Binomial(n=20, p=0.08) \]

  1. Se solicita la \(P(X=2)\)

Por definición:

\[ P(X=k) = \binom{n}{k} p^k(1-p)^{n-k};~~ k\in\{ 0,1,..,n\} \]

Entonces:

\[\begin{align} P(X=2) &= \binom{20}{2} 0.08^2(1-0.08)^{20-2}\\ P(X=2) &= \frac{20!}{2!(20-2)!} 0.08^2(0.92)^{18}\\ P(X=2) &=190\times 0.08^2 \times 0.92^{18}\\ P(X=2) &= 0,271090... \end{align}\]

Por lo que la probabilidad de encontrar exactamente \(2\) tornillos defectuosos en una muestra de \(20\), cuando la tasa de defecto es del \(0.08\), es aproximadamente \(0,271090\).

En R

p <- 0.08
n <- 20
k <- 2
dbinom(x=k, size=n, prob=p)
[1] 0.2710906
  1. Se solicita \(P(X\leq 3)\)

\[\begin{align} P(X\leq 3) &= P(X=0)+ P(X=1)+P(X=2)+P(X=3)\\ P(X\leq 3) &= \binom{20}{0}(0.08^0)(0.92^{20}) + \binom{20}{1}(0.08^1)(0.92^{19}) +\binom{20}{2}(0.08^2)(0.92^{18}) + \binom{20}{3}(0.08^3)(0.92^{17}) \\ P(X\leq 3) &= 0.9293... \end{align}\]

La probabilidad de que haya a lo sumo \(3\) tornillos defectuosos en una muestra de \(20\) es aproximadamente \(0.9293...\)

En R

p <- 0.08
n <- 20
k <- 3
pbinom(q=k, size=n, prob=p)
[1] 0.9293848
  1. Se solicita \(E[X]\) y \(Var[X]\)

\[\begin{align} E[X] &= np = 20 \times 0.08 =1.6\\ Var[X] &= np(1-p) = 20 \times 0.08 \times(1-0.08) = 1.472 \end{align}\]

En promedio, se esperan \(1.6\) tornillos defectuosos por cada muestra de \(20\). El número típico de defectuosos se desvía aproximadamente \(1.2\) (desviación) tornillos respecto a la esperanza \(1.6\).

  1. Se solicita \(P(X \geq 4)\)

Por definición:

\[\begin{align} P(X \geq 4) &= 1 - P(X \leq 3) \end{align}\]

Como

\[\begin{align} P(X \leq 3) &= 0.9293848 \end{align}\]

Entonces:

\[\begin{align} P(X \geq 4) &= 1 - P(X \leq 3) = 1- 0.9293848\\ P(X \geq 4) &= 0.0706... \end{align}\]

La probabilidad de que el lote sea rechazado es aproximadamente \(0.0706...\)

En R

p <- 0.08
n <- 20
k <- 3
pbinom(q=k, size=n, prob=p, lower.tail=FALSE)
[1] 0.07061518

Ejemplo 2

Un examen parcial de Simulación consta de \(10\) preguntas de opción múltiple. Cada pregunta tiene \(4\) opciones, de las cuales solo una es correcta. Si un estudiante responde al azar todas las preguntas, defina \(X\) como V.A Binomial y calcule la probabilidad de que apruebe el examen.

Solución

Datos:

  • \(n\): \(10\) preguntas.
  • \(p= \frac{1}{4} = 0.25\) (probabilidad de acertar al adivinar).

Se define:

\[ X: \text{número de respuesta correctas del estudiante} \]

Como cada pregunta es independiente y tiene dos resultados (acierto o error), se puede modelar cada pregunta como:

\[ X_i \sim Bernoulli(p=0.25) \]

Donde:

  • Éxito: responder correctamente la pregunta.
  • Fracaso: responder incorrectamente la pregunta.

Como hay \(10\) preguntas independientes, entonces:

\[ X = \sum_{1}^{10} X_i \]

Por lo que:

\[ X \sim Binomial (n=10, p=0.25) \]

Probabilidad de aprobar el examen.

El examen se aprueba con calificación \(3.00\) (\(6\) respuestas correctas), por lo que solicita:

\[ P(X \ge 6) \]

Se suele usar el complemento

\[ P(X \ge 6) = 1 - P(X <6 ) = 1 - P(X \le 5) \]

Para la \(P(X \le 5)\)

\[ P(X \le 5) = P(X=0) + P(X=1) + P(X=2) +P(X=3) +P(X=4) + P(X=5) \]

Se puede usar la función de probabilidad Binomial:

\[ P(X=k) = \binom{n}{k} p^k(1-p)^{n-k};~~ k\in\{ 0,1,..,n\} \]

Entonces:

\[ P(X\le 5) = \sum_{k=0}^5 \binom{10}{k} 0.25^k(0.75)^{10-k} \]

Por lo tanto:

\[ P(X\le 5) = 0.98027 \]

Para aprobar:

\[ P(X \ge 6) = 1 - 0.98027 = 0.01973... \]

En R

p <- 0.25
n <- 10
k <- 5
pbinom(q=k, size=n, prob=p, lower.tail=FALSE)
[1] 0.01972771

Distribución Geométrica

La distribución Geométrica modela el número de ensayos necesarios hasta obtener el primer éxito en una secuencia de ensayos independientes de Bernoulli con probabilidad de éxito constante \(p\). Es una distribución discreta asociada a procesos de repetición de experimentos Bernoulli hasta que ocurre el primer éxito.

Definición

Sea \(\Omega, \mathcal{F}, P\) un espacio de probabilidad.

Sea \(X_1, X_2, X_3,...\) una colección de V.A. de variables aleatorias independientes tales que:

\[ X_i \sim Bernoulli(p) \]

Se define la V.A \(X\) como:

\[ min\{i \ge 1~:~ X_i=1 \} \]

Es decir, \(X\) representa el número de ensayos necesarios hasta observar el primer éxito.

Entonces \(X\), tiene una distribución Geométrica con parámetro \(p\) si:

\[ P(X=k) = (1-p)^{k-1}p;~~k=1,2,3,... \]

Se denota:

\[ X \sim Geométrica(p) \]

Función de masa de probabilidad

Sea \(X\) una V.A tal que \(X \sim Geométrica(p)\) entonces su función de masa de probabilidad \(f(k)\) está dada por:

\[ f(k) = P(X=k) = (1-p)^{k-1}p;~~k=1,2,3,... \]

Para que el primer éxito ocurra en el ensayo \(k\) se requiere:

  • \(k-1\) fracasos.
  • Seguidos de \(1\) éxito.

Función de distribución acumulada.

Por definición:

\[ F(x) = P(X \le x) \]

Caso 1 \(x \ge 1\)

Sea \(X\) una V.A tal que \(X \sim Geométrica(p)\),

Por definición:

\[ F(x) = P(X \le x) = P(X=1) + P(X=2) + ... + P(X=x) \]

Por lo que:

\[ F(x) = \sum_{k=1}^x (1-p)^{k-1}p = p\sum_{k=1}^x (1-p)^{k-1} \]

Valor esperado \(E[X]\)

Sea \(X\) una V.A tal que \(X \sim Geométrica(p)\), por definición:

\[\begin{align} E[X] = \sum xP(X=x) \end{align}\]

Entonces para la V.A \(X \sim Geométrica(p)\):

\[\begin{align} E[X] &= \sum_{k=1}^{\infty} k(1-p)^{k-1}p\\ E[X] &= p\sum_{k=1}^{\infty} k(1-p)^{k-1} \end{align}\]

Lo anterior se resulve mediante serie geométrica:

\[ \sum_{k=0}^{\infty} r^k = \frac{1}{1-r} \]

Derivando la serie geométrica con respecto a \(r\):

\[\begin{align} \frac{d}{dx} \left[ \sum_{k=0}^{\infty} r^k \right] &= \frac{d}{dx} \left[ \frac{1}{1-r} \right]\\ \sum_{k=1}^{\infty} kr^{k-1} &= \frac{1}{(1-r)^2} \end{align}\]

En el caso de distribución geométrica, si \(r= 1-p\), entonces:

\[\begin{align} \sum_{k=1}^{\infty} k(1-p)^{k-1} &= \frac{1}{(1-(1-p))^2} \sum_{k=1}^{\infty} k(1-p)^{k-1} &= \frac{1}{p^2} \end{align}\]

Como \(E[X]= p \sum_{k=1}^{\infty} k(1-p)^{k-1}\), entonces;

\[ E[X] = \frac{1}{p} \]

En promedio se necesitan \(\frac{1}{p}\) ensayos para obtener el primer éxito.

Varianza \(Var[X]\)

Se puede demostrar que:

\[ Var[X] = \frac{1-p}{p^2} \]

Ejemplo 1

Un centro de atención telefónica registra que la probabilidad de que una llamada resulte en una venta es de \(p=0.2\) Se asume que las llamadas son independientes.

Se solicita:

  1. Probabilidad de que la primera venta ocurra en la tercera llamada.
  2. Probabilidad de que se necesiten a lo sumo 4 llamadas para lograr la primera venta.
Solución

Datos

  • \(p=0.2\)

Se define:

\[ X: \text{número de llamadas hasta la primera venta} \]

Cada llamada puede modelarse como:

\[ X_i \sim Bernoulli (p=0.2) \]

Por lo tanto:

\[ X_i \sim Geométrica (p=0.2) \]

a

Se solicita \(P(X=3)\)

Por definción:

\[ P(X=k) = (1-p)^{k-1}p \]

Entonces:

\[\begin{align} P(X=3) &= (1.0.2)^{3-1} (0.2)\\ P(X=3) &= 0.128 \end{align}\]

La probabilidad de que la primera venta ocurra exactamente en la tercera llamada es \(0.128\)

En R

p <- 0.2
k <- 3
dgeom(k-1, prob=p) #R usa la convención de número de fracasos antes del primer éxito
[1] 0.128

b

Se solicita \(P(X \le 4)\)

Usando la Función de distribución acumulada.

\[ F(x) = P(X \le x) = p\sum_{k=1}^x (1-p)^{k-1} \]

Entonces:

\[\begin{align} P(X \le 4) &= p\sum_{k=1}^4 (1-p)^{k-1}\\ P(X \le 4) &= 0.2\sum_{k=1}^4 (1-0.2)^{k-1} \\ P(X \le 4) &= 0.2\sum_{k=1}^4 (0.8)^{k-1} \\ P(X \le 4) &= 0.2\left[ 0.8^0 + 0.8^1 + 0.8^2 + 0.8^3 \right]\\ P(X \le 4) &= 0.5904 \end{align}\]

En R

p <- 0.2
k <- 4
pgeom(q=k-1, prob=p, lower.tail = TRUE)
[1] 0.5904

Ejemplo 2

En un proceso de control de calidad, cada pieza producida tiene una probabilidad de ser defectuosa de \(p=0.05\)

Se asume que las inspecciones de las piezas son independientes.

Se solicita:

  1. Probabilidad de que el primer defecto aparezca en la quinta pieza inspeccionada.
  2. Probabilidad de que el primer defecto aparezca en las primeras 6 piezas.
Solución

Datos

  • \(p=0.05\)

Se define:

\[ X: \text{número de piezas inspeccionadas hasta encontrar el primer defecto} \]

Cada inspección puede modelarse como:

\[ X_i \sim Bernoulli (p=0.05) \]

Por lo tanto:

\[ X_i \sim Geométrica (p=0.05) \]

a

Se solicita \(P(X=5)\)

Por definción:

\[ P(X=k) = (1-p)^{k-1}p \]

Entonces:

\[\begin{align} P(X=5) &= (1.0.05)^{5-1} (0.05)\\ P(X=5) &= 0.0407 \end{align}\]

La probabilidad de que el primer defecto aparezca exactamente en la quinta pieza inspeccionada es \(0.0407\)

En R

p <- 0.05
k <- 5
dgeom(k-1, prob=p) #R usa la convención de número de fracasos antes del primer éxito
[1] 0.04072531

b

Se solicita \(P(X \le 6)\)

Usando la Función de distribución acumulada.

\[ F(x) = P(X \le x) = p\sum_{k=1}^x (1-p)^{k-1} \]

Entonces:

\[\begin{align} P(X \le 6) &= 0.05 \sum_{k=1}^6 (1-0.05)^{k-1} \\ P(X \le 6) &= 0.05 \left[ 0.95^5 + 0.95^4 + 0.95^3 + 0.95^2 +0.95^1 +0.95^0 \right]\\ P(X \le 6) &=0.2649081 \end{align}\]

p <- 0.05
k <- 6
pgeom(k-1, prob=p) #R usa la convención de número de fracasos antes del primer éxito
[1] 0.2649081

Distribución Hipergeométrica

La Distribución hipergeométrica modela el número de éxitos obtenidos en una muestra de tamaño fijo extraída sin reemplazo de una población finita que contiene un número conocido de éxitos.

Es una distribución discreta asociada a procesos de muestreo sin reemplazo, donde la probabilidad de éxito cambia en cada extracción.

Definición

Sea \(\Omega, \mathcal{F}, P\) un espacio de probabilidad.

Sea una poblaicón finita de tamaño \(N\) compuesta por:

  • \(K\) elementos considerados éxitos.
  • \(N-K\) elementos considerados fracasos.

Se extrae una muestra aleatoria sin reemplazo de tamaño \(n\).

Se define la V.A. \(X\) como:

\[ X: \text{número de éxitos en la muestra} \]

Entoces \(X\) tiene una distribución hipergeométrica si:

\[ P(X=k) = \frac{\binom{K}{k} \binom{N-K}{n-k}}{\binom{N}{n}} \]

Donde:

  • \(N\): tamaño de la población.
  • \(K\): número de éxitos de la población.
  • \(n\): tamaño de la muestra.
  • \(k\): número de éxitos en la muestra.

Función de masa de probabilidad

Sea \(X\) una V.A. tal que:

\[ X \sim Hipergeométrica~(N, K, n) \]

Entonces, su función de masa de probabilidad está dada por:

\[ f(k) = \frac{\binom{K}{k} \binom{N-K}{n-k}}{\binom{N}{n}} \]

Con:

\[ k = max \{0, n-(N-k),..., min(n,K) \} \]

La interpretación es:

Para obtener \(k\) éxitos en la muestra se requiere:

  • Seleccionar \(k\) éxitos de los \(K\) disponibles

  • Seleccionar \(n−k\) fracasos de los \(N-K\) disponibles

  • Dividir entre todas las muestras posibles de tamaño \(n\)

Función de distribución acumulada

Por definición:

\[ F(x) = P(X \le x) \]

Entonces:

\[ F(x) = \sum_{k=0}^x \frac{\binom{K}{k} \binom{N-K}{n-k}}{\binom{N}{n}} \]

Valor esperado E[X]

Sea \(X\) una V.A. tal que:

\[ X \sim Hipergeométrica~(N, K, n) \]

Se puede demostrar que:

\[ E[X] = n\frac{K}{N} \]

El valor esperado corresponde al tamaño de la muestra multiplicado por la proporción de éxitos en la población.

Varianza \(var[X]\)

Sea \(X\) una V.A. tal que:

\[ X \sim Hipergeométrica~(N, K, n) \]

\[ Var[X] = n\frac{K}{N} \left( 1- \frac{K}{N} \right) \left( \frac{N-n}{N-1} \right) \]

Ejemplo 1

En un lote de \(20\) productos, \(5\) son defectuosos.

Se selecciona una muestra aleatoria sin reemplazo de \(4\) productos.

Se solicita:

  1. Probabilidad de que exactamente 2 productos sean defectuosos.
  2. Probabilidad de que a lo sumo 1 producto sea defectuoso.
Solución

Datos

  • \(N\)= 20
  • \(K\)= 5
  • \(n\)= 4

Se define:

\[ X: \text{número de productos defectuosos en la muestra} \]

Entonces

\[ X \sim Hipergeométrica~(N=20, K=5, n=4) \]

a.

Se solicita:

\[ P (X=2) \]

Por definición:

\[\begin{align} P(X=k) & =\frac{\binom{K}{k} \binom{N-K}{n-k}}{\binom{N}{n}} \end{align}\]

Entonces:

\[\begin{align} P(X=2) & =\frac{\binom{5}{2} \binom{15}{2}}{\binom{20}{4}} \\ P(X=2) & = 0.2167 \end{align}\]

En R

dhyper(x=2, m=5, n=15, k=4)
[1] 0.2167183
  • \(m\): éxitos en la población.
  • \(n\): fracasos en la población
  • \(k\): tamaño de la muestra

Distribución de Poisson

La distribución de Poisson modela el número de veces que ocurre un evento en un intervalo fijo de tiempo, espacio, área o volumen, cuando los eventos ocurren de manera independiente y con una tasa promedio constante.

Es una distribución discreta asociada a procesos de conteo de eventos raros en intervalos definidos.

Definición

Sea \(\Omega, \mathcal{F}, P\) un espacio de probabilidad.

Sea un proceso de conteo en el cual los eventos ocurren con una tasa promedio constante \(\lambda > 0\) por intervalo.

Se define la variable aleatoria:

\[ X: \text{número de eventos que ocurren en un intervalo} \]

Entonces \(X\) tiene una distribución de Poisson si:

\[ P(X=k) = \frac{e^{-\lambda} \lambda^k}{k!} \]

Donde:

  • \(\lambda\): número promedio de ocurrencias del evento en el intervalo.
  • \(k\): número de eventos observados.

Se denota

\[ X \sim Poisson (\lambda) \]

Función de masa de probabilidad \(f(k)\)

Sea \(X\) una V.A tal que:

\[ X \sim Poisson (\lambda) \]

Entonces

Entonces su función de masa de probabilidad está dada por:

\[ f(k) = \frac{e^{-\lambda} \lambda^k}{k!}~;~~k=0,1,2,3... \]

La interpretación es: para que ocurran exactamente \(k\) eventos en el intervalo se requiere que el proceso tenga una tasa promedio \(\lambda\) y que los eventos ocurran de forma independiente.

Función de distribución acumulada \(F(x)\)

Sea \(X\) una V.A tal que:

\[ X \sim Poisson (\lambda) \]

Por definición:

\[ F(x) = P(X \le x) \]

Entonces

\[ F(x) = \sum_{k=0}^x \frac{e^{-\lambda} \lambda^k}{k!} \]

Valor esperado \(E[X]\)

Sea \(X\) una V.A. tal que:

\[ X \sim Poisson (\lambda) \]

Se puede demostrar que:

\[ E[X] = \lambda \]

Varianza \(Var [X]\)

Sea \(X\) una V.A. tal que:

\[ X \sim Poisson (\lambda) \]

Se puede demostrar que:

\[ Var[X] = \lambda \]

Ejemplo 1

En una central de llamadas se reciben en promedio \(3\) llamadas por minuto.

Se solicita:

  1. Probabilidad de que en un minuto lleguen exactamente \(5\) llamadas.
  2. Probabilidad de que lleguen a lo sumo \(2\) llamadas.
Solución

Datos

\(\lambda = 3\)

Se define

\[ X: \text{número de llamadas recibidas en un minuto} \]

Entonces:

\[ X \sim Poisson (\lambda=3) \]

a.

Se solicita \(P(X=5)\)

Por definición:

\[ P(X=k) = \frac{e^{-\lambda} \lambda^k}{k!} \]

Entonces:

\[\begin{align} P(X=5) &= \frac{e^{-3} 3^5}{5!} \\ P(X=5) &= 0.1008 \end{align}\]

En R

dpois(x=5, lambda=3)
[1] 0.1008188

B

Se solicita \(P(X \le 2)\)

Por definición

\[ P(X \le k) = \sum_{k=0}^x \frac{e^{-\lambda} \lambda^k}{k!} \]

Entonces:

\[ \begin{align} P(X \le 2) &= \sum_{k=0}^2 \frac{e^{-3} 3^k}{k!} \\ P(X \le 2) &= \frac{e^{-3} 3^0}{0!} + \frac{e^{-3} 3^1}{1!} + \frac{e^{-3} 3^2}{2!}\\ P(X \le 2) &= 0.4231901 \end{align}\]

En R

ppois(q=2, lambda = 3, lower.tail = TRUE)
[1] 0.4231901

Ejemplo 2

En una sucursal bancaria se ha observado que en promedio llegan \(6\) clientes cada \(10\) minutos a una caja de atención.

Se desea calcular:

  1. La probabilidad de que exactamente \(4\) clientes lleguen en \(10\) minutos.
  2. La probabilidad de que lleguen a lo sumo \(3\) clientes en \(10\) minutos.