p <- 0.08
n <- 20
k <- 2
dbinom(x=k, size=n, prob=p)[1] 0.2710906
Antes de definir variable aleatoria es necesario establecer conceptos y marcos donde ocurre la aleatoriedad.
Proceso definido cuyo resultado exacto no se puede conocer de antemano, incluso si se repite bajo las mismas condiciones iniciales. Los experimentos aleatorios no permiten predecir con certeza el resultado individual, pero sí el conjunto de resultados posibles.
Desde la probabilidad, un experimento aleatorio es una acción repetible cuyo resultado depende del azar, tal que:
El conjunto de resultados posibles (espacio muestral) es conocido.
Antes de realizarlo, no es posible determinar con certeza cuál resultado específico ocurrirá.
Al repetirse un gran número de veces bajo condiciones idénticas, presenta regularidades estadísticas describibles mediante probabilidades.
Por lo tanto existe: incertidumbre individual, repetibilidad, estructura probabilística, no determinismo. Algunos ejemplos:
El espacio muestral es el conjunto de todos los resultados posibles de un experimento aleatorio. Ejemplos:
Si el experimento es lanzar una moneda una vez, entonces \(\Omega = \{\text{Cara, Sello} \}\) o \(\Omega = \{ \text{C, S} \}\).
Si el experimento es “observar el estado de una bomba de agua”, entonces \(\Omega = \{\text{Funcionando, En falla} \}\)
Si el experimento es lanzar la moneda dos veces, entonces \(\Omega = \{\text{(C, C), (C,S), (S, C), (S,S)} \}\)
Si el experimento es medir el tiempo de falla de una máquina, entonces \(\Omega = (0,\infty )\). Si se admite falla inmediata en el instante cero entonces \(\Omega = [0,\infty )\).
Si el experimento es medir el tiempo entre llegadas de clientes a una caja, entonces \(\Omega = (0,\infty )\), o \(\Omega = [0,\infty )\) si se permiten llegadas simultaneas.
Como se puede observar existen espacios muestrales finitos como en el caso del lanzamiento de una moneda una vez: \(\Omega = \{ \text{C, S} \}\); existes espacios muestrales infinitos, como el caso del tiempo entre llegadas de clientes \(\Omega = (0,\infty )\). Así mismo, espacios muestrales discretos y espacios muestrales continuos.
Es cualquier subconjunto del espacio muestral \(\Omega\), \(A \subseteq \Omega\). Ejemplo:
En el experimento aleatorio del lanzamiento de un dado el espacio muestral \(\Omega\) está dado por \(\Omega= \{1,2,3,4,5,6\}\). Si se define al evento \(A\) “que salga un número par”, entonces \(A= \{2, 4, 6 \}\).
Estructura matemática que define al experimento, dada por:
\(\Omega\): el conjunto de resultados.
\(\mathcal{F}\): una colección de eventos (técnicamente una \(\sigma\)-álgebra) a los que podemos asignarles probabilidad.
\(P\): la medida de probabilidad que asigna un valor entre \(0\) y \(1\) a cada evento en \(\mathcal{F}\)
A menudo, los resultados de un espacio muestral \(\Omega\) no son numéricos (ej. “Rojo”, “Éxito”, “Llegada de cliente”). Para poder hacer ingeniería y estadística, necesitamos traducir esos resultados a números reales.
Una V.A es una función matemática que asigna un valor numérico real a cada resultado de un experimento aleatorio.
Sea \(\Omega,~\mathcal{F},~P\) un espacio de probabilidad. Una variable aleatoria es una función:
\[X: \Omega \to \mathbb{R}\]
Tal que para cualquier número real \(x\), el conjunto \(\{\omega \in \Omega : X(\omega) \le x\}\) es un evento perteneciente a \(\mathcal{F}\).
¿Qué significa esto realmente?
Es una Función, no un valor: \(X\) no “toma” valores; \(X\) es la regla de asignación. El valor numérico aparece solo cuando ocurre un resultado \(\omega\) en la realidad.
Instrumento de Medición: imagina que \(\Omega\) es la realidad “cruda”. La V.A. es como un sensor que toma esa realidad y la convierte en una señal numérica procesable.
La Condición de “Medibilidad”: la parte matemática de que el conjunto sea un evento en \(\mathcal{F}\) garantiza que podemos calcular la probabilidad de que \(X\) tome ciertos valores. Si no pudiéramos mapear los números de vuelta a eventos conocidos, no podríamos decir “la probabilidad de que el tiempo sea menor a 5 min es 0.8”.
Son aquellas cuyo rango es un conjunto finito o infinito numerable (ej. número de piezas defectuosas, número de clientes en fila). Su comportamiento se entiende a partir de la función de masa de probabilidad (distribución de probabilidad: herramienta que describe cómo se reparten las probabilidades entre los posibles valores de la V.A)
Función de Masa de Probabilidad (PMF): \(p(x_i) = P(X = x_i)\).
Condiciones:
Son aquellas que pueden tomar cualquier valor en un intervalo de números reales (ej. tiempo entre arribos, peso de una carga). Su comportamiento se entiende a partir de la función de densidad de probabilidad (distribución de probabilidad: herramienta que describe cómo se reparten las probabilidades entre los posibles valores de la V.A)
Función de Densidad de Probabilidad (PDF): \(f(x)\).
Condiciones:
Probabilidad en un intervalo: \(P(a \le X \le b) = \int_{a}^{b} f(x) \,dx\).
La función de distribución acumulada (FDA o CDF, por sus siglas en inglés) de una variable aleatoria \(X\) se define como:
\[F(x) = P(X \le x)\]
Si \(X\) es una VA discreta, entonces:
\[F(x) = \sum_{x_i \le x} p(x_i)\]
\(F(x)\) es una función escalanoda, con saltos en los posibles valores de \(X\)
Si \(X\) es una VA contínua, entonces:
\[F(x) = \int_{-\infty}^{x} f(t)~dt\]
Propiedades clave:
Sea \(X\) una variable aleatoria.
La media o valor esperado de \(X\) denotado por \(E[X]\) o \(\mu\) se define como el promedio teórico de los valores que puede tomar \(X\) ponderado por sus probabilidades.
Si \(X\) es una V.A. discreta, toma valores \(x_i\) con probabilidades \(P(X=x_i)\) el valor esperado se define como:
\[E[X] = \sum x_i~ P(X=x_i)\]
Si \(X\) es una V.A continua con función de densidad \(f_(x)\), el valor esperado se define como:
\[E[X] = \int_{-\infty}^{\infty} xf(x) \,dx\]
La varianza de una V.A \(X\), denotada por \(Var(X)\) o \(\sigma^2\), mide qué tan dispersos están los valores de \(X\) alrededor de su media. Se define como:
\[ Var(X) = E[(X- \mu)^2] = E[X^2] - (E[X])^2\\ \mu= E[X] \]
Si \(X\) es una V.A. discreta toma valores \(x_i\) con probabilidades \(P(X=x_i)\) la varianza se define como:
\[ Var(X) = \sum_i (x_i - \mu)^2 P(X=x_i) \]
Si \(X\) es una V.A continua con función de densidad \(f_(x)\), el valor esperado se define como:
\[ Var(X) = \int_{-\infty}^{\infty} (x-\mu)^2 f(x)dx \]
La Bernoulli es la distribución discreta más simple y la base de muchas otras (binomial, geométrica, binomial negativa, etc.). Modela un experimento aleatorio con solo dos resultados posibles: éxito o fracaso.
Sea \(\Omega, \mathcal{F}, P\) un espacio de probabilidad.
Una variable aleatoria discreta \(X\) tiene una distribución Bernoulli con parámetro \(p \in (0,1)\) si:
\[\begin{align} \Omega \rightarrow \{ 0,1\} &\text{~tal que}\\ \\ P(X=1) = p,~~~&P(X=0) = 1-p\\ \\ \end{align}\]
Se denota:
\[\begin{align} X \sim Bernoulli(p) \end{align}\]
Si \(X \sim Bernoulli(p)\) su función de masa de probabilidad (pmf) está dada por:
\[ f(x) = p^x(1-p)^{(1-x)},~~x \in \{0,1\} \]
Caso 1: \(x<0\)
Como \(x \in \{0,1\}\) no existen valores menores que \(0\), por lo tanto.
\[ F(x) = 0 \]
Caso 2: \(0 \leq x <1\)
En este caso solo incluye el \(0\), por lo tanto.
\[ F(x) = P(X=0) = p^0(1-p)^{(1-0)} = 1-p \]
Caso 3: \(x \geq 1\)
\[\begin{align} F(x) &= P(X=0) + P (X=1)\\ F(x) &= (1-p) + p\\ F(x) &= 1 \end{align}\]
Teniendo en cuenta los tres casos:
\[ F(x) = \begin{cases} 0, & x < 0 \\ 1-p, & 0 \le x < 1 \\ 1 & \text{si } x \ge 1 \end{cases} \]
Sea \(X\) una V.A. que sigue una distribución de probabilidad Bernoulli:
\[ X \sim Bernoulli(p) \]
Con \(f(x) = p^x(1-p)^{(1-x)}\), por definición, el valor esperado \(E[X]\) para una V.A. discreta se define como:
\[ E[X] = \sum x_i P(X=x_i) \]
Cómo \(X \in \{0,1 \}\) entonces:
\[\begin{align} E[X] = [0 \times P(X=0)] + [1 \times P(X=1)] \end{align}\]
Como \(P(X=0)=1-p\) y \(P(X=1)= p\), entonces:
\[\begin{align} E[X] = p \end{align}\]
Sea \(X\) una V.A. que sigue una distribución de probabilidad Bernoulli:
\[ X \sim Bernoulli(p) \]
Con \(f(x) = p^x(1-p)^{(1-x)}\), por definición, la varianza \(Var[X]\) para una V.A. discreta se define como:
\[ Var[X] = E[(X- E[X])^2] = E[X^2]- (E[X])^2 \]
Se conoce que \(E[X]= p\) y que \(X \in \{0,1 \}\), por lo que \(X^2=X\), por lo tanto:
\[\begin{align} Var[X] &= E[X^2]- (E[X])^2 \\ Var[X] &= E[X] - p^2 \\ Var[X] &= p-p^2 \\ Var[X] &= p(1-p) \end{align}\]
La distribución Binomial es una generalización natural de la distribución Bernoulli. Modela el número de éxitos en \(n\) ensayos independientes, cada uno con probabilidad de éxito \(p\).
Es la suma de \(n\) variables Bernoulli independientes.
Sea \(\Omega, \mathcal{F}, P\) un espacio de probabilidad.
Sea \(X_1, X_2,..., X_n\) una colección de V.A. independientes tales que:
\[ X_i \sim Bernoulli(p) \]
Se define \(X\) como:
\[ X= \sum_{i=1}^n X_i \]
Entonces \(X\) tiene una distribución Binomial con parámetros \(n\) y \(p\) si:
\[ P(X=k) = \binom{n}{k} p^k(1-p)^{n-k};~~ k\in\{ 0,1,..,n\} \] \[ \binom{n}{k} = \frac{n!}{k!(n-k)!} \]
Se denota:
\[ X \sim Binomial(n,p) \]
Si \(X\) es una V.A tal que \(X\sim Binomial(n,p)\), entonces la función de masa de probabilidad \(f(k)\) está dada por:
\[ f(k)= \binom{n}{k}p^k(1-p)^{n-k};~~ k=0,1,...,n \]
Donde:
\[ \binom{n}{k} = \frac{n!}{k!(n-k)!} \]
Representa el número de tener \(k\) éxitos en \(n\) ensayos.
Por definición \(F(X) = P(X \leq x)\), por lo tanto:
Caso 1: \(x<0\)
\[ F(x) = 0 \]
Caso 2 \(0 \leq x < n\)
\[ F(x) = \sum_{k=0}^{x} \binom{n}{k} p^k(1-p)^{n-k} \]
Caso 3: \(x\geq n\)
\[ F(x) = 1 \]
Sea:
\[ X = \sum_{i=1}^n X_i \]
Donde \(X_i \sim Bernoulli(p)\), por lo que \(X\sim Binomial(n,p)\), entonces:
\[ E[X] = E \left[ \sum_{i=1}^n X_i\right] \]
Por linealidad de la esperanza \(E[X]\):
\[ E[X] = E \left[ \sum_{i=1}^n X_i\right] = \sum_{i=1}^n E[X_i] \]
Como \(X_i \sim Bernoulli(p)\), su \(E[X]=p\), por lo tanto
\[ E[X] = E \left[ \sum_{i=1}^n X_i\right] = \sum_{i=1}^n E[X_i] = \sum_{i=1}^n p = np \]
\[ E[X]=np \]
Se sabe que:
\[ Var[X] = Var \left[ \sum_{i=1}^n Xi \right] \]
Como \(X_i\) son independientes, entonces:
\[ Var[X] = Var \left[ \sum_{i=1}^n Xi \right] = \sum_{i=1}^n Var[X_i] \]
Se conoce que:
\[ Var[X_i] = p(1-p) \]
Entonces:
\[ Var[X] = Var \left[ \sum_{i=1}^n Xi \right] = \sum_{i=1}^n Var[X_i] = \sum_{i=1}^n p(1-p) = np(1-p) \]
\[ Var[X] = np(1-p) \]
Una fábrica produce tornillos industriales. Históricamente se ha determinado que el \(8\%\) de los tornillos producidos son defectuosos. Se selecciona una muestra aleatoria de \(20\) tornillos, suponiendo independencia entre ellos. Se solicita:
Solución
Datos:
Se define:
\[ X: \text{número de tornillos defectuosos en la muestra} \] Cada tornillo puede modelarse como:
\[ X_i \sim Bernoulli(p=0.08) \]
Como son \(20\) inspecciones independientes, entonces:
\[ X = \sum_{i=1}^{20} X_i \]
Por lo que:
\[ X \sim Binomial(n=20, p=0.08) \]
Por definición:
\[ P(X=k) = \binom{n}{k} p^k(1-p)^{n-k};~~ k\in\{ 0,1,..,n\} \]
Entonces:
\[\begin{align} P(X=2) &= \binom{20}{2} 0.08^2(1-0.08)^{20-2}\\ P(X=2) &= \frac{20!}{2!(20-2)!} 0.08^2(0.92)^{18}\\ P(X=2) &=190\times 0.08^2 \times 0.92^{18}\\ P(X=2) &= 0,271090... \end{align}\]
Por lo que la probabilidad de encontrar exactamente \(2\) tornillos defectuosos en una muestra de \(20\), cuando la tasa de defecto es del \(0.08\), es aproximadamente \(0,271090\).
En R
p <- 0.08
n <- 20
k <- 2
dbinom(x=k, size=n, prob=p)[1] 0.2710906
\[\begin{align} P(X\leq 3) &= P(X=0)+ P(X=1)+P(X=2)+P(X=3)\\ P(X\leq 3) &= \binom{20}{0}(0.08^0)(0.92^{20}) + \binom{20}{1}(0.08^1)(0.92^{19}) +\binom{20}{2}(0.08^2)(0.92^{18}) + \binom{20}{3}(0.08^3)(0.92^{17}) \\ P(X\leq 3) &= 0.9293... \end{align}\]
La probabilidad de que haya a lo sumo \(3\) tornillos defectuosos en una muestra de \(20\) es aproximadamente \(0.9293...\)
En R
p <- 0.08
n <- 20
k <- 3
pbinom(q=k, size=n, prob=p)[1] 0.9293848
\[\begin{align} E[X] &= np = 20 \times 0.08 =1.6\\ Var[X] &= np(1-p) = 20 \times 0.08 \times(1-0.08) = 1.472 \end{align}\]
En promedio, se esperan \(1.6\) tornillos defectuosos por cada muestra de \(20\). El número típico de defectuosos se desvía aproximadamente \(1.2\) (desviación) tornillos respecto a la esperanza \(1.6\).
Por definición:
\[\begin{align} P(X \geq 4) &= 1 - P(X \leq 3) \end{align}\]
Como
\[\begin{align} P(X \leq 3) &= 0.9293848 \end{align}\]
Entonces:
\[\begin{align} P(X \geq 4) &= 1 - P(X \leq 3) = 1- 0.9293848\\ P(X \geq 4) &= 0.0706... \end{align}\]
La probabilidad de que el lote sea rechazado es aproximadamente \(0.0706...\)
En R
p <- 0.08
n <- 20
k <- 3
pbinom(q=k, size=n, prob=p, lower.tail=FALSE)[1] 0.07061518
Un examen parcial de Simulación consta de \(10\) preguntas de opción múltiple. Cada pregunta tiene \(4\) opciones, de las cuales solo una es correcta. Si un estudiante responde al azar todas las preguntas, defina \(X\) como V.A Binomial y calcule la probabilidad de que apruebe el examen.
Solución
Datos:
Se define:
\[ X: \text{número de respuesta correctas del estudiante} \]
Como cada pregunta es independiente y tiene dos resultados (acierto o error), se puede modelar cada pregunta como:
\[ X_i \sim Bernoulli(p=0.25) \]
Donde:
Como hay \(10\) preguntas independientes, entonces:
\[ X = \sum_{1}^{10} X_i \]
Por lo que:
\[ X \sim Binomial (n=10, p=0.25) \]
Probabilidad de aprobar el examen.
El examen se aprueba con calificación \(3.00\) (\(6\) respuestas correctas), por lo que solicita:
\[ P(X \ge 6) \]
Se suele usar el complemento
\[ P(X \ge 6) = 1 - P(X <6 ) = 1 - P(X \le 5) \]
Para la \(P(X \le 5)\)
\[ P(X \le 5) = P(X=0) + P(X=1) + P(X=2) +P(X=3) +P(X=4) + P(X=5) \]
Se puede usar la función de probabilidad Binomial:
\[ P(X=k) = \binom{n}{k} p^k(1-p)^{n-k};~~ k\in\{ 0,1,..,n\} \]
Entonces:
\[ P(X\le 5) = \sum_{k=0}^5 \binom{10}{k} 0.25^k(0.75)^{10-k} \]
Por lo tanto:
\[ P(X\le 5) = 0.98027 \]
Para aprobar:
\[ P(X \ge 6) = 1 - 0.98027 = 0.01973... \]
En R
p <- 0.25
n <- 10
k <- 5
pbinom(q=k, size=n, prob=p, lower.tail=FALSE)[1] 0.01972771