Notas de clase

Introducción a la probabilidad

Andrés Cruz Ph.D(c)

25 marzo, 2021

Técnicas de conteo

Regla del producto

Si una operación se puede ejecutar en \(n_1\) formas, y si para cada una de éstas se puede llevar a cabo una segunda operación en \(n_2\) formas, y para cada una de las primeras dos se puede realizar una tercera operación en \(n_3\) formas, y así sucesivamente, entonces la serie de \(k\) operaciones se puede realizar en \(n_1 n_2 \cdots n_k\) formas.

Permutaciones

Una permutación es un arreglo de todo o parte de un conjunto de objetos.

Factorial de \(n\)

Para cualquier entero no negativo \(n\), \(n!\), denominado “\(n\) factorial” se define como \(n! = n(n - 1) \cdots (2)(1)\), con el caso especial de \(0! = 1\).

Teorema 1

El número de permutaciones de \(n\) objetos es \(n!\)

Ejemplo: ¿De cuántas formas se pueden organizar (alinear) 5 libros en un estante de forma horizontal?

n = 5
factorial(n)
## [1] 120

Teorema 2

El número de permutaciones de \(n\) objetos distintos tomados de \(r\) a la vez es:

\[_nP_r=\frac{n!}{(n-r)!}\] Ejemplo: En una carrera de velocidad compiten diez ciclistas. ¿De cuántas maneras distintas podría estar formado el podio? (el podio lo forman el primer, el segundo y el tercer clasificado)

library(gtools)
Permutaciones = permutations(10,3)
nrow(Permutaciones)
## [1] 720

Teorema 3

El número de permutaciones de \(n\) objetos ordenados en un círculo es \((n - 1)!\).

Ejemplo: ¿De cuántas maneras distintas se pueden organizar 5 llaves en un llavero, suponiendo que todas quedan con las muelitas hacia arriba?

n = 5
factorial(n-1)
## [1] 24

Teorema 4

El número de permutaciones distintas de \(n\) objetos, en el que \(n_1\) son de una clase, \(n_2\) de una segunda clase,…,\(n_k\) de una \(k\)-ésima clase es

\[\frac{n!}{n_1! n_2! n_3! \cdots n_k!}\] Ejemplo: ¿Cuántas palabras de 11 letras se pueden formar con todas las letras de la palabra Mississippi.

n = 11
n_m = 1; n_i = 4; n_s = 4; n_p = 2
factorial(n)/(factorial(n_m)*factorial(n_i)*factorial(n_s)*factorial(n_p))
## [1] 34650

Teorema 5

El número de combinaciones de \(n\) objetos distintos tomados de \(r\) a la vez es

\[\displaystyle{n \choose r}=_nC_r=\frac{n!}{r!(n-r)!}\] Ejemplo: ¿De cuántas maneras podemos elegir un comité de tres empleados, si sabemos que el total de colaboradores en la empresa es 20?

Comb = combinations(20,3)
nrow(Comb)
## [1] 1140

Tabla - Análisis combinatorio

En el contexto de muestras de tamaño \(k\) tomadas de un conjunto de cardinalidad \(n\), y a manera de resumen parcial, tenemos la siguiente tabla de fórmulas.

Muestras Con reemplazo Sin reemplazo
Con orden \(n^k\) \(_nP_k=\frac{n!}{(n-k)!}\)
Sin orden \({n+k-1} \choose {k}\) \({n \choose k}={\frac{n!}{k!(n-k)!}}\)

Historia de la probabilidad

Pierre Fermat (1601-1665)

Fermat

No existe ningún número entero positivo \(n>2\), tal que: \[ a^n+b^n=c^n \]

Blaise Pascal(1623-1662)

Pascal

La Apuesta de Pascal: “Si Dios no existe, nada pierde uno en creer en él, mientras que si existe, lo perderá todo por no creer”

Pierre Simon de Laplace (1749-1827)

Laplace

“Las cuestiones más importantes de la vida constituyen en su mayor parte, en realidad, solamente problemas de probabilidad”

Karl Friedrich Gauss (1.777 - 1.855)

Gauss

\[1+2+3+4+ \cdots +n= \sum_{i=1}^{n} i =\frac{n(n+1)}{2}\]

Florence Nightingale (1820-1910)

Florence

Primera mujer elegida, en 1858, miembro de The Statistical Society - Juramento Nightingale

Alan Turing (1912-1954)

Turing

“Una computadora puede ser llamada inteligente si logra engañar a una persona haciéndole creer que es un humano”

Conceptos básicos

Definiciones

  • El espacio muestral de un experimento aleatorio es el conjunto de todos los posibles resultados. Se denota por \(\Omega\)
  • Un evento es un subconjunto de un espacio muestral.
  • Dos eventos \(A\) y \(B\) son o disjuntos si \(A \cap B=\emptyset\); es decir, si \(A\) y \(B\) no tienen elementos en común.
  • (Laplace) Sea \(A\) un evento de un espacio muestral \(\Omega\). La probabilidad de que ocurra el evento \(A\) en un experimento aleatorio se define como: \(P(A)= \frac{\#A}{\#\Omega}\)

Probabilidad axiomática (A. N. Kolmogorov)

Axiomas de probabilidad

Sean \(A\) y \(B\) eventos de un espacio muestral \(\Omega\), entonces:

  • \(P(A)\geq0\)
  • \(P(\Omega)=1\)
  • \(P(A \cup B)=P(A)+P(B)\), cuando \(A \cap B=\emptyset\)

Reglas de probabilidad - Propiedades

Sean \(A\), \(B\) y \(C\) eventos de un espacio muestral \(\Omega\), entonces:

  • \(P(A) = 1 - P(A)^c\)
  • \(P(\emptyset)=0\)
  • Si \(A \subseteq B\), entonces \(P(A) \leq P(B)\)
  • Si \(A \subseteq B\), entonces \(P(B - A) = P(B) - P(A)\)
  • \(0 \leq P(A) \leq 1\)
  • \(P(A \cup B) = P(A) + P(B) - P(A \cap B)\)
  • \(P(A \cup B \cup C) = P(A) + P(B) + P(C) - P(A \cap B) - P(A \cap C) - P(B \cap C) + P(A \cap B \cap C)\)

Ejercicio 1

Tres caballos \(A\), \(B\) y \(C\) participan en una carrera. El suceso “\(A\) vence a \(B\)” se designa por \(AB\), el suceso “\(A\) vence a \(B\), el cual vence a \(C\)” como \(ABC\), y así sucesivamente. Se sabe que \(P(AB) = 2/3\), \(P(AC) = 2/3\) y \(P(BC) = 1/2\). Ademas \(P(ABC) = P(ACB)\), \(P(BAC) = P(BCA)\) y \(P(CAB) = P(CBA)\). Calcular \(P(A)\), \(P(B)\), \(P(C)\).

Probabilidad condicional

Definición

La probabilidad condicional del evento \(B\), dado el evento \(A\), que se denota con \(P(B|A)\), se define como

\[P(B|A)= \frac{P(A \cap B)}{P(A)}, \ \text{siempre que} \ P(A) > 0\]

Regla del producto

Si en un experimento pueden ocurrir los eventos \(A\) y \(B\), entonces

\[P(A \cap B) = P(A)P(B|A), \ \text{siempre que} \ P(A)>0\]

Regla del producto (Generalizada)

Sean \(A_1, \cdots ,A_n\) eventos tales que \(P(A1 \cap \cdots \cap A_{n-1}) > 0\), entonces:

\[ P(A_1 \cap \cdots \cap A_{n}) = P(A_1)P(A_2|A_1)P(A_3|A_1 \cap A_2) \cdots \nonumber\\ P(A_n|A_1 \cap \cdots A_{n-1})\]

Independencia estadística

Dos eventos \(A\) y \(B\) son independientes si y sólo si

\[P(A \cap B) = P(A)P(B)\]

\[P(B|A) = P(B) \ \text{o} \ P(A|B) = P(A)\]

Teorema de probabilidad total

Si los eventos \(B_1, B_2, \cdots ,B_k\) constituyen una partición del espacio muestral \(\Omega\), tal que \(P(Bi) \neq 0\) para \(i = 1, 2, \cdots , k\), entonces, para cualquier evento \(A\) de \(\Omega\),

\[ P(A) = \sum_{i=1}^{k} P(B_i \cap A) = \sum_{i=1}^{k} P(A|B_i)P(B_i ).\]

Teorema de Bayes

Si los eventos \(B_1, B_2, \cdots ,B_k\) constituyen una partición del espacio muestral \(\Omega\), tal que \(P(Bi) \neq 0\) para \(i = 1, 2, \cdots , k\), entonces, para cualquier evento \(A\) de \(\Omega\),

\[ P(B_j|A) = \frac{P(A|B_j)P(B_j)}{\sum_{i=1}^{k} P(A|B_i)P(B_i )}, \ \text{para} \ j = 1, 2, \cdots , k. \]

Ejercicios

Ejercicio 1: Una caja contiene tres monedas, dos corrientes y una de dos caras. Se selecciona una moneda al azar y se lanza. Si sale cara se lanza de nuevo; si sale sello, entonces se escoge otra moneda entre las dos que quedan y se lanza.

  • Hallar la probabilidad de que salga cara dos veces.
  • Si se lanza la misma moneda dos veces, hallar la probabilidad de que sea la moneda de dos caras.
  • Hallar la probabilidad de que salga sello dos veces.

Ejercicio 2: En una bolsa hay cinco bolas, blancas o negras. Se extrae una bola y es blanca. Hállese la probabilidad de que en la bolsa haya dos blancas y tres negras si para formar la urna se tiraron cinco monedas y se metieron tantas blancas como caras resultaron y tantas negras como cruces.

Variables aleatorias

Definición

Dado un experimento aleatorio cualquiera, una variable aleatoria es una transformación \(X\) del espacio muestral \(\Omega\) al conjunto de números reales, esto es,

\[ X: \Omega \to \mathbb{R}. \] Se pueden clasificar como:

  • Variable aleatoria discreta.
  • Variable aleatoria continua.

Por ejemplo:

  • Número de respuestas correctas en el examen.
  • Número de artículos defectuosos en la muestra.
  • Tiempo en minutos para que un cliente sean atendido por el cajero de un banco.

Distribución de probabilidad

El conjunto de pares ordenados \((x, f (x))\) es una función de probabilidad, una función de masa de probabilidad o una distribución de probabilidad de la variable aleatoria discreta \(X\) si, para cada resultado \(x\) posible,

  • \(f(x)>0\)

  • \(\sum_{x} f(x)=1\)

  • \(P(X=x)=f(x)\)

rango = c(0, 1, 2, 3); fx = c(1/8, 3/8, 3/8, 1/8); k = length(rango)
plot(rango, fx, type = "h", col = "red", lwd = 2, 
     main = "Función de masa", xlab = "x", ylab = "f(x)")
points(rango, fx, col = "red", pch = 16)

Función de distribución acumulada

La función de la distribución acumulativa \(F(x)\) de una variable aleatoria discreta \(X\) con distribución de probabilidad \(f(x)\) es

\[ F(x)=P(X \leq x )= \sum_{t \leq x} f(t), \ \text{para} \ -\infty <x< \infty \]

library(knitr)
Fx <- cumsum(fx)
tabla <- data.frame(rango, fx, Fx)
colnames(tabla) <- c("x","f(x)","F(x)")
kable(tabla)
x f(x) F(x)
0 0.125 0.125
1 0.375 0.500
2 0.375 0.875
3 0.125 1.000
plot(c(0, rango), c(0, Fx), type = "s", ylab = "F (x)", col = "red", xlab = "x",
     main = "Funcion de distribucion acumulada", lwd = 2)
points(rango, Fx, col = "red", pch = 16)
grid()

Valor esperado y Varianza

Sea \(X\) una variable aleatoria discreta con distribución de probabilidad \(f(x)\).

  • La media o valor esperado de \(X\) es:

\[\mu=E(X)=\sum_{x} xf(x)\] * La varianza de \(X\) es:

\[\sigma^2=Var(X)=E[(x-\mu)^2]=\sum_{x} (x-\mu)^2 f(x)\]

Ejercicios:

  • Un lote de 30 televisores de la misma referencia en un supermercado contiene 4 que están defectuosos. Si una persona compra al azar 3 de estos televisores, calcule la distribución de probabilidad, la distribución acumulada,la esperanza y varianza para el número de televisores defectuosos.
  • Encontrar el valor de la constante \(c\) que hace que la siguiente función sea de probabilidad.

    \[ f(x)= \left\{ \begin{array}{lcc} cx & \text{si} & x=0,1,2,3 \\ \\ 0 & & \text{en otro caso} \end{array} \right. \]

  • Demostrar que

\[\begin{equation*} \begin{split} Var(X)&=E[(x-\mu)^2] \\ &=E(X^2)-\left[ E(X) \right]^2 \end{split} \end{equation*}\]

Función de densidad de probabilidad

La función \(f(x)\) es una función de densidad de probabilidad (fdp) para la variable aleatoria continua \(X\), definida en el conjunto de números reales, si

  • \(f(x)>0\), para toda \(x \in R\)

  • \(\int_{- \infty}^{\infty} f(x) dx=1\)

  • \(P(a<X<b)=\int_{a}^{b} f(x) dx\)

Ejemplo:

La utilidad de una empresa es una variable aletoria \(X\) que tiene la siguiente función de densidad: \(f(x) = kx^2, \ \ -1 < x < 2\). Calcular el valor de \(k\) para que \(f(x)\) sea una función de densidad.

fun <- function(x) x^2
integral <- integrate(f = fun, lower = -1, upper = 2)
Int_v = integral$value; k <- 1/Int_v; print(k)
## [1] 0.3333333
fx <- function(x) (1/3) * x^2; integrate(f = fx, lower = -1, upper = 2)
## 1 with absolute error < 1.1e-14
curve(expr = fx, from = -1, to = 2, lwd = 2, col = "blue",
      main = "Funcion de densidad", ylab = "f (x)", xlab = "x")
grid()

Función de distribución acumulativa

La función de distribución acumulativa \(F(x)\), de una variable aleatoria continua \(X\) con función de densidad \(f(x)\), es

\[\begin{equation*} \begin{split} F(x)= & P(X \leq x)=\int_{- \infty}^{x} f(t) dt,\\ & \text{para} \ - \infty < x < \infty \end{split} \end{equation*}\]

fx <- function(x) (1/3) * x^2; Fx <- function (x) (x^3 + 1)/9
curve(expr = Fx, from = -1, to = 2, lwd = 2, col = "blue",
      main = "Funcion de distribucion", ylab = "F (x)", xlab = "x")
grid()

Ejercicio

La proporción de personas que responden a cierta encuesta enviada por correo es una variable aleatoria continua \(X\) que tiene la siguiente función de densidad:

\[\begin{equation*} f(x) = \left\{ \begin{array}{c l} \frac{2(x+2)}{5}, & 0<x<1\\ 0 & \text{en otro caso} \end{array} \right. \end{equation*}\]

  • Demuestre que \(P(0 < X < 1) = 1\).
  • Calcule la probabilidad de que más de \(1/4\) pero menos de \(1/2\) de las personas contactadas respondan a este tipo de encuesta.

Valor esperado y Varianza

Sea \(X\) una variable aleatoria continua con función de densidad de probabilidad \(f(x)\).

  • La media o valor esperado de \(X\) es:
    \[\begin{equation*} \mu=E(x)= \int_{- \infty}^{\infty} xf(x) dx \end{equation*}\]

  • La varianza de \(X\) es:
    \[\begin{equation*} \sigma^2=E[(x-\mu)^2]= \int_{- \infty}^{\infty} (x- \mu)^2f(x) dx \end{equation*}\]

Propiedades del valor esperado

Sean \(X\) y \(Y\) variables aleatorias con esperanza finita y sea \(c\) una constante. Entonces

  • \(E(c)=c\)

  • \(E(cX)=cE(X)\)

  • Si \(X \geq 0\), entonces \(E(X) \geq 0\)

  • \(E(X+Y)=E(X)+E(Y)\)

Propiedades de la varianza

Sean \(X\) y \(Y\) variables aleatorias con esperanza finita y sea \(c\) una constante. Entonces

  • \(Var(X) \geq 0\).
  • \(Var(c) = 0\).
  • \(Var(cX) = c^2 Var(X)\).
  • \(Var(X + c) = Var(X)\).
  • \(Var(X) = E(X^2)-E^2(X)\).
  • \(Var(X+Y)=Var(X-Y)=Var(X)+Var(Y)\), si \(X\) y \(Y\) son independientes.

Momentos

Finalmente definimos el \(n\)-ésimo momento de una variable aleatoria \(X\), cuando existe, como el número \(E(X^n)\), para cualquier valor natural de \(n\). El \(n\)-ésimo momento central de \(X\), cuando existe, es el número \(E[(X-\mu)^n]\), en donde \(\mu = E(X)\).

Si \(X\) es una variable aleatoria con función de densidad o de probabilidad \(f(x)\) entonces el \(n\)-ésimo momento de \(X\), si existe, se calcula como sigue:

\[\begin{equation*} E(X^n)= \left\{ \begin{array}{lcc} \int_{-\infty}^{\infty}x^n f(x) dx, \\ \\ \sum_{x}^{} x^n f(x). \end{array} \right. \end{equation*}\]

Función generadora de momentos

La función generadora de momentos de la variable aleatoria \(X\) es dada por \(E(e^{tX})\), y se denota con \(M_X(t)\). Por lo tanto,

\[\begin{equation*} M_X(t)=E(e^{tX}) \left\{ \begin{array}{lcc} \sum_{x}^{}e^{tX}f(x), & \text{si} & X \text{es discreta} \\ \int_{-\infty}^{\infty}e^{tX}f(x)dx, & \text{si} & X \text{es continua} \end{array} \right. \end{equation*}\]

Sea \(X\) una variable aleatoria con función generadora de momentos \(M_X(t)\). Entonces,

\[\begin{equation*} \dfrac{d^r M_X(t)}{dt^r} |_{t=0} = M^\prime_r \end{equation*}\]

Distribución de probabilidad conjunta

La función \(f(x,y)\) es una distribución de probabilidad conjunta o función de masa de probabilidad conjunta de las variables aleatorias discretas \(X\) y \(Y\), si

  • \(f(x,y)>0\) para toda \((x,y)\),
  • \(\sum_{x} \sum_{y} f(x,y)=1\),
  • \(P(X=x, Y=y)=f(x,y)\)

Para cualquier región \(A\) en el plano \(xy\), \(P[(X, Y) \in A] = \sum \sum_{A} f(x,y)\).

Ejemplo:

Se seleccionan al azar 2 cepillos de dientes de una caja que contiene 3 cepillos azules, 2 rojos y 3 verdes. Si \(X\) es el número de cepillos azules y \(Y\) es el número de cepillos rojos seleccionados, calcule

  • la función de probabilidad conjunta \(f(x,y)\),
  • \(P[(X, Y) \in A],\) donde \(A\) es la región \({(x, y) | x + y \leq 1}\).


\(f(x,y)\)

\(x\)

Total

0 1 2


y
0 3/28 9/28 3/28 15/28
1 3/14 3/14 0 3/7
2 1/28 0 0 1/28
Total 5 /14 15/28 3/28 1

Función de densidad conjunta

La función \(f(x,y)\) es una función de densidad conjunta de las variables aleatorias continuas \(X\) y \(Y\), si

  • \(f(x,y)>0\) para toda \((x,y)\),

  • \(\int_{-\infty}^{-\infty} \int_{-\infty}^{-\infty} f(x,y) dx=1\),

  • \(P[(X, Y) \in A] = \int_{}^{}\int_{A}^{} f(x,y) dx dy\) para cualquier región \(A\) en el plano \(xy\).

Distribuciones marginales

Las *distribuciones marginales de \(X\) sola y de \(Y\) sola son

  • Caso discreto:

\[g(x) = \sum_y f(x,y) \ \ \ \ \text{y} \ \ \ \ h(y) = \sum_x f(x,y)\]

  • Caso continuo:

\[g(x) = \int_{-\infty}^{\infty} f(x,y) dy \ \ \ \ \text{y} \ \ \ \ h(y) = \int_{-\infty}^{\infty} f(x,y) dx\]

Distribuciones Condicionales

Sean \(X\) y \(Y\) dos variables aleatorias, discretas o continuas. La distribución condicional de la variable aleatoria \(Y\), dado que \(X=x\), es

\[f(y|x)=\frac{f(x,y)}{g(x)}, \ \ g(x)>0\]

Ahora, la distribución condicional de la variable aleatoria \(X\), dado que \(Y=y\), es

\[f(x|y)=\frac{f(x,y)}{h(y)}, \ \ h(y)>0\]

Independencia estadística

Sean \(X\) y \(Y\) dos variables aleatorias, discretas o continuas, con distribución de probabilidad conjunta \(f(x,y)\) y distribuciones marginales \(g(x)\) y \(h(y)\), respectivamente. Se dice que las variables aleatorias \(X\) y \(Y\) son estadísticamente independientes si y solo si

\[f(x, y) = g(x)h(y)\] para toda \((x, y)\) dentro de sus rangos.

Ejercicio

En la tabla aparece la función de probabilidad conjunta asociada con datos obtenidos en un estudio de accidentes automovilísticos en los que un niño de menos de 5 años estaba en el auto y hubo al menos una persona muerta. El estudio se concentró en si el niño sobrevivió y qué tipo de cinturón de seguridad utilizaba. Se define:

\[ X= \left\{ \begin{array}{lc} 0 & \text{si el niño sobrevivió} \\ 1 & \text{si el niño no sobrevivió} \end{array} \right. \] \[ Y= \left\{ \begin{array}{lcc} 0 & \text{si no usaba cinturón} \\ 1 & \text{usaba cinturón de adulto} \\ 2 & \text{usaba cinturón de silla y de adulto} \end{array} \right. \]

X
0 1


Y

0 0.38 0.17
1 0.14 0.02
2 0.24 0.05
  1. Encuentre las funciones de probabilidad marginal para \(X\) y \(Y\)
  2. Encuentre \(E(X)\). Interprete.
  3. Tabule la función de probabilidad condicional para \(X\) dado que \(Y=0\)
  4. Encuentre \(E(X|Y=0)\). Interprete.
  5. Calcule la probabilidad de que un niño sobreviva dado que llevaba puestos los dos cinturones de la silla infantil.
  6. Diga si \(X\) y \(Y\) son independientes. Explique.