10/1/2022

Variables aleatorias

‘Una variable x es una variable aleatoria si el valor que toma, como resultado de un experimento, es una probabilidad o evento aleatorio’.

Ejemplos:

  • X = número de trasplantes de corazón exitosos realizados en el ISSSTE durante un periodo seleccionado al azar.
  • X = calificación del examen de admisión de un estudiante seleccionado al azar.
  • X = suma de los números de dos dados lanzados por una persona.

Variables aleatorias

Discretas: su conjunto de posibles resultados es finito (o infinito numerable, es decir, cada elemento tiene uno anterior y uno posterior).

Ejemplo:

  • Número de personas que transita por una calle en un tiempo determinado.

Continuas: puede tomar un número infinito no numerable de valores (no tiene uno anterior ni uno posterior).

Ejemplo:

  • Estatura de una persona seleccionada al azar dentro de una población.

Variables aleatorias discretas

La distribución de probabilidad para una variable aleatoria discreta es una fórmula, tabla o gráfica que da los posibles valores de x, y la probabilidad p(x) asociada con cada valor de x.

X P(\(X=x_i\))
\(x_1\) \(p_1\)
\(x_2\) \(p_2\)
\(\vdots\) \(\vdots\)
\(x_n\) \(p_n\)

Variables aleatorias discretas

Requisitos para una distribución de probabilidad discreta:

  • \(0 \leq p(x) \leq 1\)
  • \(\sum p(x) = 1\)

“Los valores de x representan eventos numéricos mutuamente excluyentes. Sumar p(x) sobre todos los valores de x es equivalente a sumar las probabilidades de todos los eventos simples \(\rightarrow\) es igual a 1”

Variables aleatorias discretas

Función de densidad de probabilidad (pdf: probability density function): es la función que asigna la probabilidad a los valores de la variable aleatoria.

  • Función de masa de probabilidad => cuando se trabaja con variables aleatorias discretas.

\[pdf = f(x) = p(x) = \mathbb{P}(X=x) \text{ para toda } x\]

Variables aleatorias discretas: epdf

Un estimador de \(\mathbb{P}(X=x)\) es el número de puntos muestrales iguales a x dividido entre n (el tamaño muestral). Este estimador es la Función de densidad empírica de probabilidad (epdf), y se define como:

\[\widehat{f_n}(t) = \sum_{i=1}^{n}I \left\lbrace x_i=t \right\rbrace /n\]

Donde \(I \left\lbrace x_i=t \right\rbrace\) es una función indicadora que retorna un valor de 1 cuando \(x_i=t\) y 0 cuando \(x_i \neq t\)

  • Función de masa empírica de probabilidad (epmf) => cuando se trabaja con variables aleatorias discretas

Variables aleatorias discretas: cdf

La Función de Distribución Acumulada (cdf), se define como:

\[cdf = F(x) = \mathbb{P}(X \leq x) = \sum_{k \leq x}p(k)\]

Las cdf de variables aleatorias discretas deben cumplir:

  • \(0 \leq F(x) \leq 1\)
  • Si \(a < b\), entonces \(F(a) \leq F(b)\) para todo número real a y b \(\Longrightarrow\) \(F(x)\) es una función no decreciente de \(x\)
  • \(\lim_{x\to\infty} F(x) = 1\)
  • \(\lim_{x\to-\infty} F(x) = 0\)

Variables aleatorias discretas: cdf

Un estimador de \(F(x) = \mathbb{P}(X \leq x)\) es la proporción de valores muestrales que caen en el intervalo \((-\infty,x]\). Este estimador es la Función de distribución acumulada empírica (ecdf), y se define como:

\[\widehat{f_n}(t) = \sum_{i=1}^{n}I \left\lbrace x_i \leq t \right\rbrace /n\]

Donde \(I\left\lbrace x_i \leq t \right\rbrace\) es una función indicadora que retorna un valor de 1 cuando \(x_i \leq t\) y 0 cuando \(x_i > t\)

Ejercicio

X = número de “soles” en 3 volados de una moneda ‘justa’.

Ejercicio en R

Omega <- expand.grid(moneda_1 = 0:1, moneda_2 = 0:1, moneda_3 = 0:1)
n.heads <- apply(Omega, 1, sum)
cbind(Omega, n.heads)
T1 <- table(n.heads)/length(n.heads)
fractions(T1)

plot(T1, xlab = "x", ylab="P(X = x)", yaxt = "n", main = "PDF for X")
axis(2, at = c(1/8, 3/8), labels = c("1/8", "3/8"), las = 1)

plot(ecdf(n.heads), main = "CDF for X", ylab = "F(x)", xlab = "x", yaxt = "n")
axis(2, at = c(1/8, 4/8, 7/8, 1), labels = c("1/8", "4/8", "7/8", "1"), las = 1)

Ejercicio en R 2

Ejercicio en R 2

Valores esperados

La media poblacional, que mide el valor promedio de x en la población, también se denomina valor esperado de la variable aleatoria x.

El valor que esperaríamos observar en PROMEDIO si el experimento se repite una y otra vez.

Dada una variable aleatoria discreta X con pdf p(x), su valor esperado está definido como:

\[E[X] = \sum_{x}x*p(x)\]

\(E[X]\) también se puede identificar como \(\mu_x\), porque \(E[X]\) es la media de la variable aleatoria X.

Valores esperados: ejemplo

Participas en un juego donde se hace girar una rueda que puede aterrizar en los números 1, 5 o 30, con probabilidades de 0.50, 0.45 y 0.05 respectivamente.

Debes pagar $5 para jugar y se te otorga la cantidad de dinero indicada por el número donde cae la flecha giratoria.

¿Es justo este juego?





  • Es justo cuando el retorno esperado es igual al costo de participar en el juego.

Ejercicio 2 en R

x <- c(1, 5, 30) # pagos X
px <- c(0.5, 0.45, 0.05) # probabilidades p(x)
EX <- sum(x * px)
WM <- weighted.mean(x, px)
c(EX, WM)

Valor esperado: composición de funciones

Muchas veces, lo que interesa no es la variable aleatoria en sí misma, sino alguna función de la variable aleatoria \(X\), por ejemplo, \(g(X)\).

El valor esperado de una función \(g(X)\) de la variable aleatoria X con pdf \(p(x)\) es:

\[E[g(X)] = \sum_{x}g(x)*p(x)\]

Ejemplo: \(E[g(X)]\)

A partir del ejemplo anterior, considere que la variable aleatoria \(Y\) es definida como el rendimiento neto del jugador, es decir, \(Y = X - 5\), ya que el jugador paga $5 para jugar el juego.

¿Cuál es el valor esperado de Y?

x <- c(1, 5, 30) # pagos X
px <- c(0.5, 0.45, 0.05) # probabilidades p(x)
EX <- sum((x - 5) * px)
WM <- weighted.mean((x-5), px)
c(EX, WM)

Reglas para el valor esperado

Cuando la función compuesta \(g(X)\) es una función lineal del tipo \(a + bX\), donde \(a\) y \(b\) son constantes, el \(E[g(X)]\) se calcula fácilmente a partir de \(E[X]\).

Reglas para el valor esperado cuando \(g(X)\) es una función lineal, X una v.a., \(a\) y \(b\) son constantes:

  1. \(E[bX] = bE[X]\)
  2. \(E[a + bX] = a + bE[X]\)


IMPORTANTE, si \(g(X)\) no es una función lineal de X, como \(g(X) = X^2\), entonces \(E[g(X)] \neq g(E[X])\)

Ejemplo: reglas para el valor esperado

En el ejemplo anterior, \(g(X)\) es una función lineal del tipo:

\[a + bX\] Donde:

\(\qquad a = -5\) y \(b = 1\)

Entonces:

\[E[g(X)] = E[a + bX] = a + bE[X] =\] \[-5 + 1*E[X] = -5 + 4.25 = -0.75\]

Momentos

Existen cantidades especiales que miden la media, la dispersión y la simetría de una distribución, llamadas momentos.

El momento \(r^{th}\) con respecto al origen de una variable aleatoria X, denotado como \(\alpha_r\) es definido como el \(E[X^r]\). Ten en cuenta que \(\alpha_1 = E[X^1]\) es la media de la distribución de \(X\), el cual puede ser denotado como \(\mu_X\) o simplemente \(\mu\)

El momento \(r^{th}\) alrededor de la media de una v.a. \(X\), es el valor esperado de \((X - \mu)^r\)

Varianza

El segundo momento respecto a la media se denomina varianza de la distribución de \(X\) o varianza de \(X\), la cual se define como:

\[Var[X] = \sigma_X^2 = E[(X-\mu)^2] = E[X^2] - \mu\] La raíz cuadrada de la varianza es la desviación estándar y se denota por \(\sigma_X\). Las unidades de medida de la desviación estándar son siempre las mismas que las de la v.a. \(X\).

Reglas de la varianza

Si \(X\) es una v.a. con media \(\mu\) y \(a\) y \(b\) son constantes, entonces:

  1. \(Var[b] = 0\)
  2. \(Var[aX] = a^2Var[X]\)
  3. \(Var[aX+b] = a^2Var[X]\)

Varianza de una v.a. discreta

Sea \(X\) una v.a. discreta, con pdf \(p(x)\) y media \(\mu\), la varianza de \(X\) se calcula como:

\[\sigma^2 = E[(x-\mu)^2] = \sum_x(x-\mu)^2 p(x)\]

Ejemplo: varianza

Una tienda vende un modelo de computadora portátil. Hay sólo cuatro computadoras en existencia y la gerente se pregunta cuál será la demanda de hoy para este modelo particular. Ella se entera en el departamento de marketing que la distribución de probabilidad para x, la demanda diaria para la laptop, es la siguiente:

x 0.0 1.0 2.0 3.00 4.0 5.00
px 0.1 0.4 0.2 0.15 0.1 0.05

Encuentre la media, varianza y desviación estándar de x.

¿Es probable que 5 o más clientes deseen comprar una laptop hoy?

Ejemplo: varianza

x <- c(0:5) # Laptops vendidas
px <- c(0.10, 0.40, 0.20, 0.15, 0.10, 0.05) # probabilidades p(x)
EX <- sum(x * px)
m_x <- EX
E_varX <- sum((x - m_x)^2 * px)
WM_varX <- weighted.mean((x - m_x)^2, px)
c(E_varX, WM_varX)

barplot(px, ylab = 'p(x)', names.arg = x)

Ejemplo para resolver

En una lotería realizada a beneficio de una institución local de caridad, se han de vender 8000 boletos a 100 cada uno. El premio es un automóvil de 240,000. Si usted compra dos boletos, ¿cuál es su ganancia esperada?

Variables aleatorias continuas



Cuando una variable aleatoria tiene un conjunto de valores posibles dentro de todo un intervalo (finito o infinito) de números reales, X es una v.a. continua.

Función de densidad de probabilidad continua


La función \(f(x)\) es una pdf de la v.a. continua X, definido para el conjunto de números \(\mathbb R\) si:


  1. \(f(x) \geq 0 \text{, } -\infty < x < \infty\)
  2. \(\int_{-\infty}^{\infty} f(x) dx = 1 \text{, y}\)
  3. \(\mathbb{P}(a \leq X \leq b) = \int_{a}^{b} f(x) dx\)

Condición 3

Función de distribución acumulada

La cdf, \(F(x)\), de una v.a. continua X con pdf \(f(x)\) es:

\[F(x)= \mathbb{P}(X \leq x)= \int_{-\infty}^{x} f(t) dt\text{, } -\infty < x < \infty \] Propiedades:

  • \(0 \leq F(x) \leq 1\)
  • Si \(a < b\), entonces \(F(a) \leq F(b)\) para todo número real a y b \(\Longrightarrow\) \(F(x)\) es una función no decreciente de \(x\)
  • \(\lim_{x\to\infty} F(x) = 1\)
  • \(\lim_{x\to-\infty} F(x) = 0\)

Ejemplo: v.a. continua

Suponga que X es una v.a. continua con pdf \(f(x)\), donde:

\[ f(x)= \left\{ \begin{array}{lcc} \frac{3}{4} (1-x^2) & si & -1 < x \leq 1 \\ \\ 0 & \text{en otro caso} \end{array} \right. \]


  1. Encontrar la cdf para X. \(\Longrightarrow F(x)\)
  2. Estimar \(\mathbb{P}(-0.5 \leq X \leq 1)\)
  3. Graficar la pdf y la cdf.

R1: CDF

\[ F(x)= \left\{ \begin{array}{lcc} \ 0 & si & x \leq -1 \\ \\ \int_{-1}^{x} \frac{3}{4}(1-t^2)dt & si & -1 < X \leq 1 \\ \\ 1 & si & x > 1 \end{array} \right. \]

R1: Integral de f(x)

\(\int_{-1}^{x} \frac{3}{4}(1-t^2)dt = \int_{-1}^{x} \frac{3}{4}-\frac{3}{4}t^2dt\)

Evaluar primero la integral indefinida \(\\ \int \frac{3-3t^2}{4}dt = \int \frac{3}{4}dt + \int-\frac{3t^2}{4}dt = \frac{3}{4}\int dt-\frac{3\int t^2dt}{4} \\ \frac{3t}{4} - \frac{3\frac{t^3}{3}}{4} = \frac{3t}{4}-\frac{t^3}{4}\)

Evaluar la integral definida

\(\\ \frac{3x}{4}-\frac{x^3}{4} - (\frac{3(-1)}{4}-\frac{(-1)^3}{4}) = \frac{3x}{4} - \frac{x^3}{4} + \frac{1}{2} = - \frac{x^3}{4} + \frac{3x}{4} + \frac{1}{2}\)

R1: CDF final

\[ F(x)= \left\{ \begin{array}{lcc} \ 0 & si & x \leq -1 \\ \\ \int_{-1}^{x} \frac{3}{4}(1-t^2)dt = - \frac{x^3}{4} + \frac{3x}{4} + \frac{1}{2} & si & -1 < X \leq 1 \\ \\ 1 & si & x > 1 \end{array} \right. \]

R2

\[ \begin{equation} \label{eq1} \begin{split} \mathbb{P}(-0.5 \leq X \leq 1) & = F(1) - F(-0.5) \\ & = \left(\frac{-1^3}{4} + \frac{3*1}{4} + \frac{1}{2} \right) - \left(-\frac{(-\frac{1}{2})^3}{4} + \frac{3*(-\frac{1}{2})}{4} + \frac{1}{2} \right) \\ & = \left(\frac{-1}{4} + \frac{3}{4} + \frac{1}{2} \right) - \left(\frac{1}{32} + \frac{-3}{8} + \frac{1}{2} \right) \\ & = \left(\frac{-1+3+2}{4} \right) - \left(\frac{1-12+16}{32} \right) \\ & = 1 - \frac{5}{32} = \frac{27}{32} = 0.84375 \end{split} \end{equation} \]

R3: gráficas PDF y CDF

f_x <- function(x) {
  y <- 3/4 * (1 - x^2)
  y[x < -1 | x > 1] <- 0
  return(y)
  }
curve(f_x, -2, 2, xlab = "x", ylab = "f(x)", main = "PDF para X")

F_x <- function(x) {
  y <- -x^3/4 + 3 * x/4 + 1/2
  y[x <= -1] <- 0
  y[x > 1] <- 1
  return(y)
  }
curve(F_x, -2, 2, xlab = "x", ylab = "F(x)", main = "CDF para X")

R3: gráficas PDF y CDF

Integrales en R

f_x <- function(x) {
  3/4 - 3/4 * x^2
  } # define la función fx

integrate(f_x, lower = -0.5, upper = 1) # Estima valor y tolerancia
ans <- integrate(f_x, lower = -0.5, upper = 1)$value # devuelve solo el valor
ans

library(MASS) # Para utilizar la función fractions()
fractions(ans) # Estima la fracción más cercana

Bibliografía

Esta presentación se ha basado en:

Mendenhall, W., & Scheaffer, R. L. (2010). Introducción a la probabilidad y estadística. Cengage Learning Editores.

Ugarte, M. D., Militino, A. F., & Arnholt, A. T. (2015). Probability and Statistics with R. Amsterdam University Press.