Si una operación se puede ejecutar en \(n_1\) formas, y si para cada una de éstas se puede llevar a cabo una segunda operación en \(n_2\) formas, y para cada una de las primeras dos se puede realizar una tercera operación en \(n_3\) formas, y así sucesivamente, entonces la serie de \(k\) operaciones se puede realizar en \(n_1 n_2 \cdots n_k\) formas.
Una permutación es un arreglo de todo o parte de un conjunto de objetos.
Para cualquier entero no negativo \(n\), \(n!\), denominado “\(n\) factorial” se define como \(n! = n(n - 1) \cdots (2)(1)\), con el caso especial de \(0! = 1\).
El número de permutaciones de \(n\) objetos es \(n!\)
Ejemplo: ¿De cuántas formas se pueden organizar (alinear) 5 libros en un estante de forma horizontal?
## [1] 120
El número de permutaciones de \(n\) objetos distintos tomados de \(r\) a la vez es:
\[_nP_r=\frac{n!}{(n-r)!}\] Ejemplo: En una carrera de velocidad compiten diez ciclistas. ¿De cuántas maneras distintas podría estar formado el podio? (el podio lo forman el primer, el segundo y el tercer clasificado)
## [1] 720
El número de permutaciones de \(n\) objetos ordenados en un círculo es \((n - 1)!\).
Ejemplo: ¿De cuántas maneras distintas se pueden organizar 5 llaves en un llavero, suponiendo que todas quedan con las muelitas hacia arriba?
## [1] 24
El número de permutaciones distintas de \(n\) objetos, en el que \(n_1\) son de una clase, \(n_2\) de una segunda clase,…,\(n_k\) de una \(k\)-ésima clase es
\[\frac{n!}{n_1! n_2! n_3! \cdots n_k!}\] Ejemplo: ¿Cuántas palabras de 11 letras se pueden formar con todas las letras de la palabra Mississippi.
n = 11
n_m = 1; n_i = 4; n_s = 4; n_p = 2
factorial(n)/(factorial(n_m)*factorial(n_i)*factorial(n_s)*factorial(n_p))## [1] 34650
El número de combinaciones de \(n\) objetos distintos tomados de \(r\) a la vez es
\[\displaystyle{n \choose r}=_nC_r=\frac{n!}{r!(n-r)!}\] Ejemplo: ¿De cuántas maneras podemos elegir un comité de tres empleados, si sabemos que el total de colaboradores en la empresa es 20?
## [1] 1140
En el contexto de muestras de tamaño \(k\) tomadas de un conjunto de cardinalidad \(n\), y a manera de resumen parcial, tenemos la siguiente tabla de fórmulas.
| Muestras | Con reemplazo | Sin reemplazo |
|---|---|---|
| Con orden | \(n^k\) | \(_nP_k=\frac{n!}{(n-k)!}\) |
| Sin orden | \({n+k-1} \choose {k}\) | \({n \choose k}={\frac{n!}{k!(n-k)!}}\) |
No existe ningún número entero positivo \(n>2\), tal que: \[ a^n+b^n=c^n \]
La Apuesta de Pascal: “Si Dios no existe, nada pierde uno en creer en él, mientras que si existe, lo perderá todo por no creer”
“Las cuestiones más importantes de la vida constituyen en su mayor parte, en realidad, solamente problemas de probabilidad”
\[1+2+3+4+ \cdots +n= \sum_{i=1}^{n} i =\frac{n(n+1)}{2}\]
Primera mujer elegida, en 1858, miembro de The Statistical Society - Juramento Nightingale
“Una computadora puede ser llamada inteligente si logra engañar a una persona haciéndole creer que es un humano”
Sean \(A\) y \(B\) eventos de un espacio muestral \(\Omega\), entonces:
Sean \(A\), \(B\) y \(C\) eventos de un espacio muestral \(\Omega\), entonces:
Tres caballos \(A\), \(B\) y \(C\) participan en una carrera. El suceso “\(A\) vence a \(B\)” se designa por \(AB\), el suceso “\(A\) vence a \(B\), el cual vence a \(C\)” como \(ABC\), y así sucesivamente. Se sabe que \(P(AB) = 2/3\), \(P(AC) = 2/3\) y \(P(BC) = 1/2\). Ademas \(P(ABC) = P(ACB)\), \(P(BAC) = P(BCA)\) y \(P(CAB) = P(CBA)\). Calcular \(P(A)\), \(P(B)\), \(P(C)\).
La probabilidad condicional del evento \(B\), dado el evento \(A\), que se denota con \(P(B|A)\), se define como
\[P(B|A)= \frac{P(A \cap B)}{P(A)}, \ \text{siempre que} \ P(A) > 0\]
Si en un experimento pueden ocurrir los eventos \(A\) y \(B\), entonces
\[P(A \cap B) = P(A)P(B|A), \ \text{siempre que} \ P(A)>0\]
Sean \(A_1, \cdots ,A_n\) eventos tales que \(P(A1 \cap \cdots \cap A_{n-1}) > 0\), entonces:
\[ P(A_1 \cap \cdots \cap A_{n}) = P(A_1)P(A_2|A_1)P(A_3|A_1 \cap A_2) \cdots \nonumber\\ P(A_n|A_1 \cap \cdots A_{n-1})\]
Dos eventos \(A\) y \(B\) son independientes si y sólo si
\[P(A \cap B) = P(A)P(B)\]
\[P(B|A) = P(B) \ \text{o} \ P(A|B) = P(A)\]
Si los eventos \(B_1, B_2, \cdots ,B_k\) constituyen una partición del espacio muestral \(\Omega\), tal que \(P(Bi) \neq 0\) para \(i = 1, 2, \cdots , k\), entonces, para cualquier evento \(A\) de \(\Omega\),
\[ P(A) = \sum_{i=1}^{k} P(B_i \cap A) = \sum_{i=1}^{k} P(A|B_i)P(B_i ).\]
Si los eventos \(B_1, B_2, \cdots ,B_k\) constituyen una partición del espacio muestral \(\Omega\), tal que \(P(Bi) \neq 0\) para \(i = 1, 2, \cdots , k\), entonces, para cualquier evento \(A\) de \(\Omega\),
\[ P(B_j|A) = \frac{P(A|B_j)P(B_j)}{\sum_{i=1}^{k} P(A|B_i)P(B_i )}, \ \text{para} \ j = 1, 2, \cdots , k. \]
Ejercicio 1: Una caja contiene tres monedas, dos corrientes y una de dos caras. Se selecciona una moneda al azar y se lanza. Si sale cara se lanza de nuevo; si sale sello, entonces se escoge otra moneda entre las dos que quedan y se lanza.
Ejercicio 2: En una bolsa hay cinco bolas, blancas o negras. Se extrae una bola y es blanca. Hállese la probabilidad de que en la bolsa haya dos blancas y tres negras si para formar la urna se tiraron cinco monedas y se metieron tantas blancas como caras resultaron y tantas negras como cruces.
Dado un experimento aleatorio cualquiera, una variable aleatoria es una transformación \(X\) del espacio muestral \(\Omega\) al conjunto de números reales, esto es,
\[ X: \Omega \to \mathbb{R}. \] Se pueden clasificar como:
Por ejemplo:
El conjunto de pares ordenados \((x, f (x))\) es una función de probabilidad, una función de masa de probabilidad o una distribución de probabilidad de la variable aleatoria discreta \(X\) si, para cada resultado \(x\) posible,
\(f(x)>0\)
\(\sum_{x} f(x)=1\)
\(P(X=x)=f(x)\)
rango = c(0, 1, 2, 3); fx = c(1/8, 3/8, 3/8, 1/8); k = length(rango)
plot(rango, fx, type = "h", col = "red", lwd = 2,
main = "Función de masa", xlab = "x", ylab = "f(x)")
points(rango, fx, col = "red", pch = 16)La función de la distribución acumulativa \(F(x)\) de una variable aleatoria discreta \(X\) con distribución de probabilidad \(f(x)\) es
\[ F(x)=P(X \leq x )= \sum_{t \leq x} f(t), \ \text{para} \ -\infty <x< \infty \]
library(knitr)
Fx <- cumsum(fx)
tabla <- data.frame(rango, fx, Fx)
colnames(tabla) <- c("x","f(x)","F(x)")
kable(tabla)| x | f(x) | F(x) |
|---|---|---|
| 0 | 0.125 | 0.125 |
| 1 | 0.375 | 0.500 |
| 2 | 0.375 | 0.875 |
| 3 | 0.125 | 1.000 |
plot(c(0, rango), c(0, Fx), type = "s", ylab = "F (x)", col = "red", xlab = "x",
main = "Funcion de distribucion acumulada", lwd = 2)
points(rango, Fx, col = "red", pch = 16)
grid()Sea \(X\) una variable aleatoria discreta con distribución de probabilidad \(f(x)\).
\[\mu=E(X)=\sum_{x} xf(x)\] * La varianza de \(X\) es:
\[\sigma^2=Var(X)=E[(x-\mu)^2]=\sum_{x} (x-\mu)^2 f(x)\]
Encontrar el valor de la constante \(c\) que hace que la siguiente función sea de probabilidad.
\[ f(x)= \left\{ \begin{array}{lcc} cx & \text{si} & x=0,1,2,3 \\ \\ 0 & & \text{en otro caso} \end{array} \right. \]
Demostrar que
\[\begin{equation*} \begin{split} Var(X)&=E[(x-\mu)^2] \\ &=E(X^2)-\left[ E(X) \right]^2 \end{split} \end{equation*}\]
La función \(f(x)\) es una función de densidad de probabilidad (fdp) para la variable aleatoria continua \(X\), definida en el conjunto de números reales, si
\(f(x)>0\), para toda \(x \in R\)
\(\int_{- \infty}^{\infty} f(x) dx=1\)
\(P(a<X<b)=\int_{a}^{b} f(x) dx\)
La utilidad de una empresa es una variable aletoria \(X\) que tiene la siguiente función de densidad: \(f(x) = kx^2, \ \ -1 < x < 2\). Calcular el valor de \(k\) para que \(f(x)\) sea una función de densidad.
fun <- function(x) x^2
integral <- integrate(f = fun, lower = -1, upper = 2)
Int_v = integral$value; k <- 1/Int_v; print(k)## [1] 0.3333333
## 1 with absolute error < 1.1e-14
curve(expr = fx, from = -1, to = 2, lwd = 2, col = "blue",
main = "Funcion de densidad", ylab = "f (x)", xlab = "x")
grid()La función de distribución acumulativa \(F(x)\), de una variable aleatoria continua \(X\) con función de densidad \(f(x)\), es
\[\begin{equation*} \begin{split} F(x)= & P(X \leq x)=\int_{- \infty}^{x} f(t) dt,\\ & \text{para} \ - \infty < x < \infty \end{split} \end{equation*}\]
fx <- function(x) (1/3) * x^2; Fx <- function (x) (x^3 + 1)/9
curve(expr = Fx, from = -1, to = 2, lwd = 2, col = "blue",
main = "Funcion de distribucion", ylab = "F (x)", xlab = "x")
grid()La proporción de personas que responden a cierta encuesta enviada por correo es una variable aleatoria continua \(X\) que tiene la siguiente función de densidad:
\[\begin{equation*} f(x) = \left\{ \begin{array}{c l} \frac{2(x+2)}{5}, & 0<x<1\\ 0 & \text{en otro caso} \end{array} \right. \end{equation*}\]
Sea \(X\) una variable aleatoria continua con función de densidad de probabilidad \(f(x)\).
La media o valor esperado de \(X\) es:
\[\begin{equation*}
\mu=E(x)= \int_{- \infty}^{\infty} xf(x) dx
\end{equation*}\]
La varianza de \(X\) es:
\[\begin{equation*}
\sigma^2=E[(x-\mu)^2]= \int_{- \infty}^{\infty} (x- \mu)^2f(x) dx
\end{equation*}\]
Sean \(X\) y \(Y\) variables aleatorias con esperanza finita y sea \(c\) una constante. Entonces
\(E(c)=c\)
\(E(cX)=cE(X)\)
Si \(X \geq 0\), entonces \(E(X) \geq 0\)
\(E(X+Y)=E(X)+E(Y)\)
Sean \(X\) y \(Y\) variables aleatorias con esperanza finita y sea \(c\) una constante. Entonces
Finalmente definimos el \(n\)-ésimo momento de una variable aleatoria \(X\), cuando existe, como el número \(E(X^n)\), para cualquier valor natural de \(n\). El \(n\)-ésimo momento central de \(X\), cuando existe, es el número \(E[(X-\mu)^n]\), en donde \(\mu = E(X)\).
Si \(X\) es una variable aleatoria con función de densidad o de probabilidad \(f(x)\) entonces el \(n\)-ésimo momento de \(X\), si existe, se calcula como sigue:
\[\begin{equation*} E(X^n)= \left\{ \begin{array}{lcc} \int_{-\infty}^{\infty}x^n f(x) dx, \\ \\ \sum_{x}^{} x^n f(x). \end{array} \right. \end{equation*}\]
La función generadora de momentos de la variable aleatoria \(X\) es dada por \(E(e^{tX})\), y se denota con \(M_X(t)\). Por lo tanto,
\[\begin{equation*} M_X(t)=E(e^{tX}) \left\{ \begin{array}{lcc} \sum_{x}^{}e^{tX}f(x), & \text{si} & X \text{es discreta} \\ \int_{-\infty}^{\infty}e^{tX}f(x)dx, & \text{si} & X \text{es continua} \end{array} \right. \end{equation*}\]
Sea \(X\) una variable aleatoria con función generadora de momentos \(M_X(t)\). Entonces,
\[\begin{equation*} \dfrac{d^r M_X(t)}{dt^r} |_{t=0} = M^\prime_r \end{equation*}\]
La función \(f(x,y)\) es una distribución de probabilidad conjunta o función de masa de probabilidad conjunta de las variables aleatorias discretas \(X\) y \(Y\), si
Para cualquier región \(A\) en el plano \(xy\), \(P[(X, Y) \in A] = \sum \sum_{A} f(x,y)\).
Ejemplo:
Se seleccionan al azar 2 cepillos de dientes de una caja que contiene 3 cepillos azules, 2 rojos y 3 verdes. Si \(X\) es el número de cepillos azules y \(Y\) es el número de cepillos rojos seleccionados, calcule
|
\(f(x,y)\) |
\(x\) |
Total |
|||
|---|---|---|---|---|---|
| 0 | 1 | 2 | |||
|
y |
0 | 3/28 | 9/28 | 3/28 | 15/28 |
| 1 | 3/14 | 3/14 | 0 | 3/7 | |
| 2 | 1/28 | 0 | 0 | 1/28 | |
| Total | 5 /14 | 15/28 | 3/28 | 1 | |
La función \(f(x,y)\) es una función de densidad conjunta de las variables aleatorias continuas \(X\) y \(Y\), si
\(f(x,y)>0\) para toda \((x,y)\),
\(\int_{-\infty}^{-\infty} \int_{-\infty}^{-\infty} f(x,y) dx=1\),
\(P[(X, Y) \in A] = \int_{}^{}\int_{A}^{} f(x,y) dx dy\) para cualquier región \(A\) en el plano \(xy\).
Las *distribuciones marginales de \(X\) sola y de \(Y\) sola son
\[g(x) = \sum_y f(x,y) \ \ \ \ \text{y} \ \ \ \ h(y) = \sum_x f(x,y)\]
\[g(x) = \int_{-\infty}^{\infty} f(x,y) dy \ \ \ \ \text{y} \ \ \ \ h(y) = \int_{-\infty}^{\infty} f(x,y) dx\]
Sean \(X\) y \(Y\) dos variables aleatorias, discretas o continuas. La distribución condicional de la variable aleatoria \(Y\), dado que \(X=x\), es
\[f(y|x)=\frac{f(x,y)}{g(x)}, \ \ g(x)>0\]
Ahora, la distribución condicional de la variable aleatoria \(X\), dado que \(Y=y\), es
\[f(x|y)=\frac{f(x,y)}{h(y)}, \ \ h(y)>0\]
Sean \(X\) y \(Y\) dos variables aleatorias, discretas o continuas, con distribución de probabilidad conjunta \(f(x,y)\) y distribuciones marginales \(g(x)\) y \(h(y)\), respectivamente. Se dice que las variables aleatorias \(X\) y \(Y\) son estadísticamente independientes si y solo si
\[f(x, y) = g(x)h(y)\] para toda \((x, y)\) dentro de sus rangos.
En la tabla aparece la función de probabilidad conjunta asociada con datos obtenidos en un estudio de accidentes automovilísticos en los que un niño de menos de 5 años estaba en el auto y hubo al menos una persona muerta. El estudio se concentró en si el niño sobrevivió y qué tipo de cinturón de seguridad utilizaba. Se define:
\[ X= \left\{ \begin{array}{lc} 0 & \text{si el niño sobrevivió} \\ 1 & \text{si el niño no sobrevivió} \end{array} \right. \] \[ Y= \left\{ \begin{array}{lcc} 0 & \text{si no usaba cinturón} \\ 1 & \text{usaba cinturón de adulto} \\ 2 & \text{usaba cinturón de silla y de adulto} \end{array} \right. \]
| X | |||
|---|---|---|---|
| 0 | 1 | ||
|
Y |
0 | 0.38 | 0.17 |
| 1 | 0.14 | 0.02 | |
| 2 | 0.24 | 0.05 | |