p <- 0.08
n <- 20
k <- 2
dbinom(x=k, size=n, prob=p)[1] 0.2710906
Antes de definir variable aleatoria es necesario establecer conceptos y marcos donde ocurre la aleatoriedad.
Proceso definido cuyo resultado exacto no se puede conocer de antemano, incluso si se repite bajo las mismas condiciones iniciales. Los experimentos aleatorios no permiten predecir con certeza el resultado individual, pero sí el conjunto de resultados posibles.
Desde la probabilidad, un experimento aleatorio es una acción repetible cuyo resultado depende del azar, tal que:
El conjunto de resultados posibles (espacio muestral) es conocido.
Antes de realizarlo, no es posible determinar con certeza cuál resultado específico ocurrirá.
Al repetirse un gran número de veces bajo condiciones idénticas, presenta regularidades estadísticas describibles mediante probabilidades.
Por lo tanto existe: incertidumbre individual, repetibilidad, estructura probabilística, no determinismo. Algunos ejemplos:
El espacio muestral es el conjunto de todos los resultados posibles de un experimento aleatorio. Ejemplos:
Si el experimento es lanzar una moneda una vez, entonces \(\Omega = \{\text{Cara, Sello} \}\) o \(\Omega = \{ \text{C, S} \}\).
Si el experimento es “observar el estado de una bomba de agua”, entonces \(\Omega = \{\text{Funcionando, En falla} \}\)
Si el experimento es lanzar la moneda dos veces, entonces \(\Omega = \{\text{(C, C), (C,S), (S, C), (S,S)} \}\)
Si el experimento es medir el tiempo de falla de una máquina, entonces \(\Omega = (0,\infty )\). Si se admite falla inmediata en el instante cero entonces \(\Omega = [0,\infty )\).
Si el experimento es medir el tiempo entre llegadas de clientes a una caja, entonces \(\Omega = (0,\infty )\), o \(\Omega = [0,\infty )\) si se permiten llegadas simultaneas.
Como se puede observar existen espacios muestrales finitos como en el caso del lanzamiento de una moneda una vez: \(\Omega = \{ \text{C, S} \}\); existes espacios muestrales infinitos, como el caso del tiempo entre llegadas de clientes \(\Omega = (0,\infty )\). Así mismo, espacios muestrales discretos y espacios muestrales continuos.
Es cualquier subconjunto del espacio muestral \(\Omega\), \(A \subseteq \Omega\). Ejemplo:
En el experimento aleatorio del lanzamiento de un dado el espacio muestral \(\Omega\) está dado por \(\Omega= \{1,2,3,4,5,6\}\). Si se define al evento \(A\) “que salga un número par”, entonces \(A= \{2, 4, 6 \}\).
Estructura matemática que define al experimento, dada por:
\(\Omega\): el conjunto de resultados.
\(\mathcal{F}\): una colección de eventos (técnicamente una \(\sigma\)-álgebra) a los que podemos asignarles probabilidad.
\(P\): la medida de probabilidad que asigna un valor entre \(0\) y \(1\) a cada evento en \(\mathcal{F}\)
A menudo, los resultados de un espacio muestral \(\Omega\) no son numéricos (ej. “Rojo”, “Éxito”, “Llegada de cliente”). Para poder hacer ingeniería y estadística, necesitamos traducir esos resultados a números reales.
Una V.A es una función matemática que asigna un valor numérico real a cada resultado de un experimento aleatorio.
Sea \(\Omega,~\mathcal{F},~P\) un espacio de probabilidad. Una variable aleatoria es una función:
\[X: \Omega \to \mathbb{R}\]
Tal que para cualquier número real \(x\), el conjunto \(\{\omega \in \Omega : X(\omega) \le x\}\) es un evento perteneciente a \(\mathcal{F}\).
¿Qué significa esto realmente?
Es una Función, no un valor: \(X\) no “toma” valores; \(X\) es la regla de asignación. El valor numérico aparece solo cuando ocurre un resultado \(\omega\) en la realidad.
Instrumento de Medición: imagina que \(\Omega\) es la realidad “cruda”. La V.A. es como un sensor que toma esa realidad y la convierte en una señal numérica procesable.
La Condición de “Medibilidad”: la parte matemática de que el conjunto sea un evento en \(\mathcal{F}\) garantiza que podemos calcular la probabilidad de que \(X\) tome ciertos valores. Si no pudiéramos mapear los números de vuelta a eventos conocidos, no podríamos decir “la probabilidad de que el tiempo sea menor a 5 min es 0.8”.
Son aquellas cuyo rango es un conjunto finito o infinito numerable (ej. número de piezas defectuosas, número de clientes en fila). Su comportamiento se entiende a partir de la función de masa de probabilidad (distribución de probabilidad: herramienta que describe cómo se reparten las probabilidades entre los posibles valores de la V.A)
Función de Masa de Probabilidad (PMF): \(p(x_i) = P(X = x_i)\).
Condiciones:
Son aquellas que pueden tomar cualquier valor en un intervalo de números reales (ej. tiempo entre arribos, peso de una carga). Su comportamiento se entiende a partir de la función de densidad de probabilidad (distribución de probabilidad: herramienta que describe cómo se reparten las probabilidades entre los posibles valores de la V.A)
Función de Densidad de Probabilidad (PDF): \(f(x)\).
Condiciones:
Probabilidad en un intervalo: \(P(a \le X \le b) = \int_{a}^{b} f(x) \,dx\).
La función de distribución acumulada (FDA o CDF, por sus siglas en inglés) de una variable aleatoria \(X\) se define como:
\[F(x) = P(X \le x)\]
Si \(X\) es una VA discreta, entonces:
\[F(x) = \sum_{x_i \le x} p(x_i)\]
\(F(x)\) es una función escalanoda, con saltos en los posibles valores de \(X\)
Si \(X\) es una VA contínua, entonces:
\[F(x) = \int_{-\infty}^{x} f(t)~dt\]
Propiedades clave:
Sea \(X\) una variable aleatoria.
La media o valor esperado de \(X\) denotado por \(E[X]\) o \(\mu\) se define como el promedio teórico de los valores que puede tomar \(X\) ponderado por sus probabilidades.
Si \(X\) es una V.A. discreta, toma valores \(x_i\) con probabilidades \(P(X=x_i)\) el valor esperado se define como:
\[E[X] = \sum x_i~ P(X=x_i)\]
Si \(X\) es una V.A continua con función de densidad \(f_(x)\), el valor esperado se define como:
\[E[X] = \int_{-\infty}^{\infty} xf(x) \,dx\]
La varianza de una V.A \(X\), denotada por \(Var(X)\) o \(\sigma^2\), mide qué tan dispersos están los valores de \(X\) alrededor de su media. Se define como:
\[ Var(X) = E[(X- \mu)^2] = E[X^2] - (E[X])^2\\ \mu= E[X] \]
Si \(X\) es una V.A. discreta toma valores \(x_i\) con probabilidades \(P(X=x_i)\) la varianza se define como:
\[ Var(X) = \sum_i (x_i - \mu)^2 P(X=x_i) \]
Si \(X\) es una V.A continua con función de densidad \(f_(x)\), el valor esperado se define como:
\[ Var(X) = \int_{-\infty}^{\infty} (x-\mu)^2 f(x)dx \]
La Bernoulli es la distribución discreta más simple y la base de muchas otras (binomial, geométrica, binomial negativa, etc.). Modela un experimento aleatorio con solo dos resultados posibles: éxito o fracaso.
Sea \(\Omega, \mathcal{F}, P\) un espacio de probabilidad.
Una variable aleatoria discreta \(X\) tiene una distribución Bernoulli con parámetro \(p \in (0,1)\) si:
\[\begin{align} \Omega \rightarrow \{ 0,1\} &\text{~tal que}\\ \\ P(X=1) = p,~~~&P(X=0) = 1-p\\ \\ \end{align}\]
Se denota:
\[\begin{align} X \sim Bernoulli(p) \end{align}\]
Si \(X \sim Bernoulli(p)\) su función de masa de probabilidad (pmf) está dada por:
\[ f(x) = p^x(1-p)^{(1-x)},~~x \in \{0,1\} \]
Caso 1: \(x<0\)
Como \(x \in \{0,1\}\) no existen valores menores que \(0\), por lo tanto.
\[ F(x) = 0 \]
Caso 2: \(0 \leq x <1\)
En este caso solo incluye el \(0\), por lo tanto.
\[ F(x) = P(X=0) = p^0(1-p)^{(1-0)} = 1-p \]
Caso 3: \(x \geq 1\)
\[\begin{align} F(x) &= P(X=0) + P (X=1)\\ F(x) &= (1-p) + p\\ F(x) &= 1 \end{align}\]
Teniendo en cuenta los tres casos:
\[ F(x) = \begin{cases} 0, & x < 0 \\ 1-p, & 0 \le x < 1 \\ 1 & \text{si } x \ge 1 \end{cases} \]
Sea \(X\) una V.A. que sigue una distribución de probabilidad Bernoulli:
\[ X \sim Bernoulli(p) \]
Con \(f(x) = p^x(1-p)^{(1-x)}\), por definición, el valor esperado \(E[X]\) para una V.A. discreta se define como:
\[ E[X] = \sum x_i P(X=x_i) \]
Cómo \(X \in \{0,1 \}\) entonces:
\[\begin{align} E[X] = [0 \times P(X=0)] + [1 \times P(X=1)] \end{align}\]
Como \(P(X=0)=1-p\) y \(P(X=1)= p\), entonces:
\[\begin{align} E[X] = p \end{align}\]
Sea \(X\) una V.A. que sigue una distribución de probabilidad Bernoulli:
\[ X \sim Bernoulli(p) \]
Con \(f(x) = p^x(1-p)^{(1-x)}\), por definición, la varianza \(Var[X]\) para una V.A. discreta se define como:
\[ Var[X] = E[(X- E[X])^2] = E[X^2]- (E[X])^2 \]
Se conoce que \(E[X]= p\) y que \(X \in \{0,1 \}\), por lo que \(X^2=X\), por lo tanto:
\[\begin{align} Var[X] &= E[X^2]- (E[X])^2 \\ Var[X] &= E[X] - p^2 \\ Var[X] &= p-p^2 \\ Var[X] &= p(1-p) \end{align}\]
La distribución Binomial es una generalización natural de la distribución Bernoulli. Modela el número de éxitos en \(n\) ensayos independientes, cada uno con probabilidad de éxito \(p\).
Es la suma de \(n\) variables Bernoulli independientes.
Sea \(\Omega, \mathcal{F}, P\) un espacio de probabilidad.
Sea \(X_1, X_2,..., X_n\) una colección de V.A. independientes tales que:
\[ X_i \sim Bernoulli(p) \]
Se define \(X\) como:
\[ X= \sum_{i=1}^n X_i \]
Entonces \(X\) tiene una distribución Binomial con parámetros \(n\) y \(p\) si:
\[ P(X=k) = \binom{n}{k} p^k(1-p)^{n-k};~~ k\in\{ 0,1,..,n\} \] \[ \binom{n}{k} = \frac{n!}{k!(n-k)!} \]
Se denota:
\[ X \sim Binomial(n,p) \]
Si \(X\) es una V.A tal que \(X\sim Binomial(n,p)\), entonces la función de masa de probabilidad \(f(k)\) está dada por:
\[ f(k)= \binom{n}{k}p^k(1-p)^{n-k};~~ k=0,1,...,n \]
Donde:
\[ \binom{n}{k} = \frac{n!}{k!(n-k)!} \]
Representa el número de tener \(k\) éxitos en \(n\) ensayos.
Por definición \(F(X) = P(X \leq x)\), por lo tanto:
Caso 1: \(x<0\)
\[ F(x) = 0 \]
Caso 2 \(0 \leq x < n\)
\[ F(x) = \sum_{k=0}^{x} \binom{n}{k} p^k(1-p)^{n-k} \]
Caso 3: \(x\geq n\)
\[ F(x) = 1 \]
Sea:
\[ X = \sum_{i=1}^n X_i \]
Donde \(X_i \sim Bernoulli(p)\), por lo que \(X\sim Binomial(n,p)\), entonces:
\[ E[X] = E \left[ \sum_{i=1}^n X_i\right] \]
Por linealidad de la esperanza \(E[X]\):
\[ E[X] = E \left[ \sum_{i=1}^n X_i\right] = \sum_{i=1}^n E[X_i] \]
Como \(X_i \sim Bernoulli(p)\), su \(E[X]=p\), por lo tanto
\[ E[X] = E \left[ \sum_{i=1}^n X_i\right] = \sum_{i=1}^n E[X_i] = \sum_{i=1}^n p = np \]
\[ E[X]=np \]
Se sabe que:
\[ Var[X] = Var \left[ \sum_{i=1}^n Xi \right] \]
Como \(X_i\) son independientes, entonces:
\[ Var[X] = Var \left[ \sum_{i=1}^n Xi \right] = \sum_{i=1}^n Var[X_i] \]
Se conoce que:
\[ Var[X_i] = p(1-p) \]
Entonces:
\[ Var[X] = Var \left[ \sum_{i=1}^n Xi \right] = \sum_{i=1}^n Var[X_i] = \sum_{i=1}^n p(1-p) = np(1-p) \]
\[ Var[X] = np(1-p) \]
Una fábrica produce tornillos industriales. Históricamente se ha determinado que el \(8\%\) de los tornillos producidos son defectuosos. Se selecciona una muestra aleatoria de \(20\) tornillos, suponiendo independencia entre ellos. Se solicita:
Solución
Datos:
Se define:
\[ X: \text{número de tornillos defectuosos en la muestra} \] Cada tornillo puede modelarse como:
\[ X_i \sim Bernoulli(p=0.08) \]
Como son \(20\) inspecciones independientes, entonces:
\[ X = \sum_{i=1}^{20} X_i \]
Por lo que:
\[ X \sim Binomial(n=20, p=0.08) \]
Por definición:
\[ P(X=k) = \binom{n}{k} p^k(1-p)^{n-k};~~ k\in\{ 0,1,..,n\} \]
Entonces:
\[\begin{align} P(X=2) &= \binom{20}{2} 0.08^2(1-0.08)^{20-2}\\ P(X=2) &= \frac{20!}{2!(20-2)!} 0.08^2(0.92)^{18}\\ P(X=2) &=190\times 0.08^2 \times 0.92^{18}\\ P(X=2) &= 0,271090... \end{align}\]
Por lo que la probabilidad de encontrar exactamente \(2\) tornillos defectuosos en una muestra de \(20\), cuando la tasa de defecto es del \(0.08\), es aproximadamente \(0,271090\).
En R
p <- 0.08
n <- 20
k <- 2
dbinom(x=k, size=n, prob=p)[1] 0.2710906
\[\begin{align} P(X\leq 3) &= P(X=0)+ P(X=1)+P(X=2)+P(X=3)\\ P(X\leq 3) &= \binom{20}{0}(0.08^0)(0.92^{20}) + \binom{20}{1}(0.08^1)(0.92^{19}) +\binom{20}{2}(0.08^2)(0.92^{18}) + \binom{20}{3}(0.08^3)(0.92^{17}) \\ P(X\leq 3) &= 0.9293... \end{align}\]
La probabilidad de que haya a lo sumo \(3\) tornillos defectuosos en una muestra de \(20\) es aproximadamente \(0.9293...\)
En R
p <- 0.08
n <- 20
k <- 3
pbinom(q=k, size=n, prob=p)[1] 0.9293848
\[\begin{align} E[X] &= np = 20 \times 0.08 =1.6\\ Var[X] &= np(1-p) = 20 \times 0.08 \times(1-0.08) = 1.472 \end{align}\]
En promedio, se esperan \(1.6\) tornillos defectuosos por cada muestra de \(20\). El número típico de defectuosos se desvía aproximadamente \(1.2\) (desviación) tornillos respecto a la esperanza \(1.6\).
Por definición:
\[\begin{align} P(X \geq 4) &= 1 - P(X \leq 3) \end{align}\]
Como
\[\begin{align} P(X \leq 3) &= 0.9293848 \end{align}\]
Entonces:
\[\begin{align} P(X \geq 4) &= 1 - P(X \leq 3) = 1- 0.9293848\\ P(X \geq 4) &= 0.0706... \end{align}\]
La probabilidad de que el lote sea rechazado es aproximadamente \(0.0706...\)
En R
p <- 0.08
n <- 20
k <- 3
pbinom(q=k, size=n, prob=p, lower.tail=FALSE)[1] 0.07061518
Un examen parcial de Simulación consta de \(10\) preguntas de opción múltiple. Cada pregunta tiene \(4\) opciones, de las cuales solo una es correcta. Si un estudiante responde al azar todas las preguntas, defina \(X\) como V.A Binomial y calcule la probabilidad de que apruebe el examen.
Solución
Datos:
Se define:
\[ X: \text{número de respuesta correctas del estudiante} \]
Como cada pregunta es independiente y tiene dos resultados (acierto o error), se puede modelar cada pregunta como:
\[ X_i \sim Bernoulli(p=0.25) \]
Donde:
Como hay \(10\) preguntas independientes, entonces:
\[ X = \sum_{1}^{10} X_i \]
Por lo que:
\[ X \sim Binomial (n=10, p=0.25) \]
Probabilidad de aprobar el examen.
El examen se aprueba con calificación \(3.00\) (\(6\) respuestas correctas), por lo que solicita:
\[ P(X \ge 6) \]
Se suele usar el complemento
\[ P(X \ge 6) = 1 - P(X <6 ) = 1 - P(X \le 5) \]
Para la \(P(X \le 5)\)
\[ P(X \le 5) = P(X=0) + P(X=1) + P(X=2) +P(X=3) +P(X=4) + P(X=5) \]
Se puede usar la función de probabilidad Binomial:
\[ P(X=k) = \binom{n}{k} p^k(1-p)^{n-k};~~ k\in\{ 0,1,..,n\} \]
Entonces:
\[ P(X\le 5) = \sum_{k=0}^5 \binom{10}{k} 0.25^k(0.75)^{10-k} \]
Por lo tanto:
\[ P(X\le 5) = 0.98027 \]
Para aprobar:
\[ P(X \ge 6) = 1 - 0.98027 = 0.01973... \]
En R
p <- 0.25
n <- 10
k <- 5
pbinom(q=k, size=n, prob=p, lower.tail=FALSE)[1] 0.01972771
La distribución Geométrica modela el número de ensayos necesarios hasta obtener el primer éxito en una secuencia de ensayos independientes de Bernoulli con probabilidad de éxito constante \(p\). Es una distribución discreta asociada a procesos de repetición de experimentos Bernoulli hasta que ocurre el primer éxito.
Sea \(\Omega, \mathcal{F}, P\) un espacio de probabilidad.
Sea \(X_1, X_2, X_3,...\) una colección de V.A. de variables aleatorias independientes tales que:
\[ X_i \sim Bernoulli(p) \]
Se define la V.A \(X\) como:
\[ min\{i \ge 1~:~ X_i=1 \} \]
Es decir, \(X\) representa el número de ensayos necesarios hasta observar el primer éxito.
Entonces \(X\), tiene una distribución Geométrica con parámetro \(p\) si:
\[ P(X=k) = (1-p)^{k-1}p;~~k=1,2,3,... \]
Se denota:
\[ X \sim Geométrica(p) \]
Sea \(X\) una V.A tal que \(X \sim Geométrica(p)\) entonces su función de masa de probabilidad \(f(k)\) está dada por:
\[ f(k) = P(X=k) = (1-p)^{k-1}p;~~k=1,2,3,... \]
Para que el primer éxito ocurra en el ensayo \(k\) se requiere:
Por definición:
\[ F(x) = P(X \le x) \]
Caso 1 \(x \ge 1\)
Sea \(X\) una V.A tal que \(X \sim Geométrica(p)\),
Por definición:
\[ F(x) = P(X \le x) = P(X=1) + P(X=2) + ... + P(X=x) \]
Por lo que:
\[ F(x) = \sum_{k=1}^x (1-p)^{k-1}p = p\sum_{k=1}^x (1-p)^{k-1} \]
Sea \(X\) una V.A tal que \(X \sim Geométrica(p)\), por definición:
\[\begin{align} E[X] = \sum xP(X=x) \end{align}\]
Entonces para la V.A \(X \sim Geométrica(p)\):
\[\begin{align} E[X] &= \sum_{k=1}^{\infty} k(1-p)^{k-1}p\\ E[X] &= p\sum_{k=1}^{\infty} k(1-p)^{k-1} \end{align}\]
Lo anterior se resulve mediante serie geométrica:
\[ \sum_{k=0}^{\infty} r^k = \frac{1}{1-r} \]
Derivando la serie geométrica con respecto a \(r\):
\[\begin{align} \frac{d}{dx} \left[ \sum_{k=0}^{\infty} r^k \right] &= \frac{d}{dx} \left[ \frac{1}{1-r} \right]\\ \sum_{k=1}^{\infty} kr^{k-1} &= \frac{1}{(1-r)^2} \end{align}\]
En el caso de distribución geométrica, si \(r= 1-p\), entonces:
\[\begin{align} \sum_{k=1}^{\infty} k(1-p)^{k-1} &= \frac{1}{(1-(1-p))^2} \sum_{k=1}^{\infty} k(1-p)^{k-1} &= \frac{1}{p^2} \end{align}\]
Como \(E[X]= p \sum_{k=1}^{\infty} k(1-p)^{k-1}\), entonces;
\[ E[X] = \frac{1}{p} \]
En promedio se necesitan \(\frac{1}{p}\) ensayos para obtener el primer éxito.
Se puede demostrar que:
\[ Var[X] = \frac{1-p}{p^2} \]
Un centro de atención telefónica registra que la probabilidad de que una llamada resulte en una venta es de \(p=0.2\) Se asume que las llamadas son independientes.
Se solicita:
Datos
Se define:
\[ X: \text{número de llamadas hasta la primera venta} \]
Cada llamada puede modelarse como:
\[ X_i \sim Bernoulli (p=0.2) \]
Por lo tanto:
\[ X_i \sim Geométrica (p=0.2) \]
a
Se solicita \(P(X=3)\)
Por definción:
\[ P(X=k) = (1-p)^{k-1}p \]
Entonces:
\[\begin{align} P(X=3) &= (1.0.2)^{3-1} (0.2)\\ P(X=3) &= 0.128 \end{align}\]
La probabilidad de que la primera venta ocurra exactamente en la tercera llamada es \(0.128\)
En R
p <- 0.2
k <- 3
dgeom(k-1, prob=p) #R usa la convención de número de fracasos antes del primer éxito[1] 0.128
b
Se solicita \(P(X \le 4)\)
Usando la Función de distribución acumulada.
\[ F(x) = P(X \le x) = p\sum_{k=1}^x (1-p)^{k-1} \]
Entonces:
\[\begin{align} P(X \le 4) &= p\sum_{k=1}^4 (1-p)^{k-1}\\ P(X \le 4) &= 0.2\sum_{k=1}^4 (1-0.2)^{k-1} \\ P(X \le 4) &= 0.2\sum_{k=1}^4 (0.8)^{k-1} \\ P(X \le 4) &= 0.2\left[ 0.8^0 + 0.8^1 + 0.8^2 + 0.8^3 \right]\\ P(X \le 4) &= 0.5904 \end{align}\]
En R
p <- 0.2
k <- 4
pgeom(q=k-1, prob=p, lower.tail = TRUE)[1] 0.5904
En un proceso de control de calidad, cada pieza producida tiene una probabilidad de ser defectuosa de \(p=0.05\)
Se asume que las inspecciones de las piezas son independientes.
Se solicita:
Datos
Se define:
\[ X: \text{número de piezas inspeccionadas hasta encontrar el primer defecto} \]
Cada inspección puede modelarse como:
\[ X_i \sim Bernoulli (p=0.05) \]
Por lo tanto:
\[ X_i \sim Geométrica (p=0.05) \]
a
Se solicita \(P(X=5)\)
Por definción:
\[ P(X=k) = (1-p)^{k-1}p \]
Entonces:
\[\begin{align} P(X=5) &= (1.0.05)^{5-1} (0.05)\\ P(X=5) &= 0.0407 \end{align}\]
La probabilidad de que el primer defecto aparezca exactamente en la quinta pieza inspeccionada es \(0.0407\)
En R
p <- 0.05
k <- 5
dgeom(k-1, prob=p) #R usa la convención de número de fracasos antes del primer éxito[1] 0.04072531
b
Se solicita \(P(X \le 6)\)
Usando la Función de distribución acumulada.
\[ F(x) = P(X \le x) = p\sum_{k=1}^x (1-p)^{k-1} \]
Entonces:
\[\begin{align} P(X \le 6) &= 0.05 \sum_{k=1}^6 (1-0.05)^{k-1} \\ P(X \le 6) &= 0.05 \left[ 0.95^5 + 0.95^4 + 0.95^3 + 0.95^2 +0.95^1 +0.95^0 \right]\\ P(X \le 6) &=0.2649081 \end{align}\]
p <- 0.05
k <- 6
pgeom(k-1, prob=p) #R usa la convención de número de fracasos antes del primer éxito[1] 0.2649081
La Distribución hipergeométrica modela el número de éxitos obtenidos en una muestra de tamaño fijo extraída sin reemplazo de una población finita que contiene un número conocido de éxitos.
Es una distribución discreta asociada a procesos de muestreo sin reemplazo, donde la probabilidad de éxito cambia en cada extracción.
Sea \(\Omega, \mathcal{F}, P\) un espacio de probabilidad.
Sea una poblaicón finita de tamaño \(N\) compuesta por:
Se extrae una muestra aleatoria sin reemplazo de tamaño \(n\).
Se define la V.A. \(X\) como:
\[ X: \text{número de éxitos en la muestra} \]
Entoces \(X\) tiene una distribución hipergeométrica si:
\[ P(X=k) = \frac{\binom{K}{k} \binom{N-K}{n-k}}{\binom{N}{n}} \]
Donde:
Sea \(X\) una V.A. tal que:
\[ X \sim Hipergeométrica~(N, K, n) \]
Entonces, su función de masa de probabilidad está dada por:
\[ f(k) = \frac{\binom{K}{k} \binom{N-K}{n-k}}{\binom{N}{n}} \]
Con:
\[ k = max \{0, n-(N-k),..., min(n,K) \} \]
La interpretación es:
Para obtener \(k\) éxitos en la muestra se requiere:
Seleccionar \(k\) éxitos de los \(K\) disponibles
Seleccionar \(n−k\) fracasos de los \(N-K\) disponibles
Dividir entre todas las muestras posibles de tamaño \(n\)
Por definición:
\[ F(x) = P(X \le x) \]
Entonces:
\[ F(x) = \sum_{k=0}^x \frac{\binom{K}{k} \binom{N-K}{n-k}}{\binom{N}{n}} \]
Sea \(X\) una V.A. tal que:
\[ X \sim Hipergeométrica~(N, K, n) \]
Se puede demostrar que:
\[ E[X] = n\frac{K}{N} \]
El valor esperado corresponde al tamaño de la muestra multiplicado por la proporción de éxitos en la población.
Sea \(X\) una V.A. tal que:
\[ X \sim Hipergeométrica~(N, K, n) \]
\[ Var[X] = n\frac{K}{N} \left( 1- \frac{K}{N} \right) \left( \frac{N-n}{N-1} \right) \]
En un lote de \(20\) productos, \(5\) son defectuosos.
Se selecciona una muestra aleatoria sin reemplazo de \(4\) productos.
Se solicita:
Datos
Se define:
\[ X: \text{número de productos defectuosos en la muestra} \]
Entonces
\[ X \sim Hipergeométrica~(N=20, K=5, n=4) \]
a.
Se solicita:
\[ P (X=2) \]
Por definición:
\[\begin{align} P(X=k) & =\frac{\binom{K}{k} \binom{N-K}{n-k}}{\binom{N}{n}} \end{align}\]
Entonces:
\[\begin{align} P(X=2) & =\frac{\binom{5}{2} \binom{15}{2}}{\binom{20}{4}} \\ P(X=2) & = 0.2167 \end{align}\]
En R
dhyper(x=2, m=5, n=15, k=4)[1] 0.2167183
La distribución de Poisson modela el número de veces que ocurre un evento en un intervalo fijo de tiempo, espacio, área o volumen, cuando los eventos ocurren de manera independiente y con una tasa promedio constante.
Es una distribución discreta asociada a procesos de conteo de eventos raros en intervalos definidos.
Sea \(\Omega, \mathcal{F}, P\) un espacio de probabilidad.
Sea un proceso de conteo en el cual los eventos ocurren con una tasa promedio constante \(\lambda > 0\) por intervalo.
Se define la variable aleatoria:
\[ X: \text{número de eventos que ocurren en un intervalo} \]
Entonces \(X\) tiene una distribución de Poisson si:
\[ P(X=k) = \frac{e^{-\lambda} \lambda^k}{k!} \]
Donde:
Se denota
\[ X \sim Poisson (\lambda) \]
Sea \(X\) una V.A tal que:
\[ X \sim Poisson (\lambda) \]
Entonces
Entonces su función de masa de probabilidad está dada por:
\[ f(k) = \frac{e^{-\lambda} \lambda^k}{k!}~;~~k=0,1,2,3... \]
La interpretación es: para que ocurran exactamente \(k\) eventos en el intervalo se requiere que el proceso tenga una tasa promedio \(\lambda\) y que los eventos ocurran de forma independiente.
Sea \(X\) una V.A tal que:
\[ X \sim Poisson (\lambda) \]
Por definición:
\[ F(x) = P(X \le x) \]
Entonces
\[ F(x) = \sum_{k=0}^x \frac{e^{-\lambda} \lambda^k}{k!} \]
Sea \(X\) una V.A. tal que:
\[ X \sim Poisson (\lambda) \]
Se puede demostrar que:
\[ E[X] = \lambda \]
Sea \(X\) una V.A. tal que:
\[ X \sim Poisson (\lambda) \]
Se puede demostrar que:
\[ Var[X] = \lambda \]
En una central de llamadas se reciben en promedio \(3\) llamadas por minuto.
Se solicita:
Datos
\(\lambda = 3\)
Se define
\[ X: \text{número de llamadas recibidas en un minuto} \]
Entonces:
\[ X \sim Poisson (\lambda=3) \]
a.
Se solicita \(P(X=5)\)
Por definición:
\[ P(X=k) = \frac{e^{-\lambda} \lambda^k}{k!} \]
Entonces:
\[\begin{align} P(X=5) &= \frac{e^{-3} 3^5}{5!} \\ P(X=5) &= 0.1008 \end{align}\]
En R
dpois(x=5, lambda=3)[1] 0.1008188
B
Se solicita \(P(X \le 2)\)
Por definición
\[ P(X \le k) = \sum_{k=0}^x \frac{e^{-\lambda} \lambda^k}{k!} \]
Entonces:
\[ \begin{align} P(X \le 2) &= \sum_{k=0}^2 \frac{e^{-3} 3^k}{k!} \\ P(X \le 2) &= \frac{e^{-3} 3^0}{0!} + \frac{e^{-3} 3^1}{1!} + \frac{e^{-3} 3^2}{2!}\\ P(X \le 2) &= 0.4231901 \end{align}\]
En R
ppois(q=2, lambda = 3, lower.tail = TRUE)[1] 0.4231901
En una sucursal bancaria se ha observado que en promedio llegan \(6\) clientes cada \(10\) minutos a una caja de atención.
Se desea calcular: