En general, cuando hacemos experimentos aleatorios, el resultado de nuestro interés es numérico, dicho resultado podemos expresarlo como una variable aleatoria (v.a.). Según si la v.a. es discreta o continua, es posible describir su comportamiento probabilístico a partir de la función de probabilidad o de la función de densidad, respectivamente. Adicionalmente, con la ayuda de dicha función es posible calcular medidas de tendencia central, de variabilidad, localización y forma, tal como lo hicimos al inicio del curso, pero esta vez a nivel poblacional (más adelante las llamaremos parámetros) .
En este módulo el estudiante aprenderá los conceptos básicos relacionados con variables aleatorias y su función de probabilidad o de distribución, desde la selección de la apropiada, el cálculo de probabilidades a partir de ella,de igual forma, aprenderá como cálcular e interpretar valores esperados, varianza, momentos y función generadora de momentos.
Las siguientes definiciones están siempre basadas en un espacio de probabilidad \((\Omega, \mathcal{A},P)\).
Una v.a. \(X\) es una función cuyo dominio es \(\Omega\) y recorrido \(\mathcal{R}\), es decir que a cada evento en \(\Omega\) le asigna un número real. De tal forma que la inversa de \(X\) calculada en un subconjunto de los reales, siempre pertenece a \(\mathcal{A}\). Las v.a.s pueden ser de dos tipos dependiendo su recorrido:
Discretas: Cuando su recorrido es numerable. Un buen ejemplo de variables discretas son los conteos, como el número de casos incidentes de determinada enfermedad en un mes.
Continuas: Cuando su recorrido es no numerable, es decir cuando entre dos valores de la variable hay infinitos posibles valores de ésta.
Supongamos el experimento \(E:\text{Lanzamiento de dos monedas}\), con \(\Omega=\left\lbrace (C,C), (C,S),(S,C),(S,S)\right\rbrace\) y \(\mathcal{A}=\mathcal{P}(\Omega)\)
Sea \(X(\omega):\text{número de caras obtenidas en }\omega\), así:
\[X((C,C))=2\]
\[X((S,C))=X((C,S))=1\] \[X((S,S))=0\] Veamos qué pasa con su función inversa:
\[X^{-1}(2)=(C,C)\in\mathcal{A}\]
\[X^{-1}(1)=\left\lbrace (S,C),(C,S)\right\rbrace \in\mathcal{A}\]
\[X^{-1}(0)=\phi\in\mathcal{A}\]
Así, de una forma muy empírica, hemos visto que \(X\) es una v.a. y como su recorrido es contable, es discreta.
Cuando \(X\) es una v.a discreta, la f.d.p, \(f_X(x)\), es aquella que rige el comportamiento probabilístico de ella. Debe cumplir con los siguientes requisitos:
Dada \(X\): suma del lanzamiento de dos dados. Se sabe que su f.d.p está dada por:
\[f_X(x)=\frac{6-|7-x|}{36}\text{, }x=2,3,...,12\] Calcular: 1. \(P(X=3)=\frac{6-|7-3|}{36}=\frac{2}{36}\)
## [1] 0.05555556
## [1] 0.1666667
## [1] 0.3888889
## [1] 0.25
La distribución de probabilidad completa estaría dada por
#valores de la variable
x<-2:12
#calculo de la función de probabilidad para cada valor de la variable
fx<-f(x)
cbind(x, fx)
## x fx
## [1,] 2 0.02777778
## [2,] 3 0.05555556
## [3,] 4 0.08333333
## [4,] 5 0.11111111
## [5,] 6 0.13888889
## [6,] 7 0.16666667
## [7,] 8 0.13888889
## [8,] 9 0.11111111
## [9,] 10 0.08333333
## [10,] 11 0.05555556
## [11,] 12 0.02777778
#Función de probabilidad
barplot(f(x), names.arg =as.character(x), ylim=c(0,0.2), xlab="Suma de dos dados", ylab="f.d.p", col = "light blue")
Cuando \(X\) es una v.a. continua, la f.d.p. debe cumplir con las siguientes características:
Suponga que \(X\):estancia hospitalaria en días, tiene la siguiente función de densidad:
\[f_X(x)=\frac{1}{15}e^{-\frac{1}{15}x}I_{(0,\infty)(x)}\] Calcular la probabilidad de que un paciente tenga menos de 10 días de estancia hospitalaria.
Nos piden calcular \(P(X>10)\), es decir, el área bajo la curva de la función de densidad entre 0 y 10:
x1<-seq(0,30,0.01)
#función de densidad
fx1<-function(x) 1/15*exp(-1/15*x)
plot(x1,fx1(x1), type="l")
abline(v=0, col="blue")
abline(v=10, col="blue")
## [1] 0.4865829
Nota: Notaremos como f.d.p a la función de probabilidad o de densidad según sea el caso. Es decir que el lector, de acuerdo a la variable debe identificar sobre cuál estamos hablando.
La función de distribución de una v.a. \(X\) es aquella que calcula la probabilidad acumulada hasta un punto \(x\), es decir:
\[F_X(x)=P(X\leq x)\]
Así, cuando \(X\) es continua, \(P(a\leq X\leq b)=F_X(b)-F_X(a)\) y cuando \(X\) es discreta \(P(a\leq X\leq b)=F_X(b)-F_X(a-1)\), siendo \(a-1\) el punto inmediatamente anterior a \(a\).
Escriba en términos de la función de distribución las probabilidades obtenidas en el ejemplo de la suma de dos dados.
Escriba en términos de la función de distribución, teniendo en cuenta los dos casos, v.a continua o discreta, las siguientes probabilidades:
El valor esperado de una función, cumple el mismo papel del promedio en una muestra, pero esta vez a nivel poblacional, es decir, es el centro de gravedad de todos los posibles datos de una variable. Su cálculo depende de la naturaleza de la variable:
Discreta: \(E(X)=\sum x_if_X(x_i)\)
Continua: \(E(X)=\int xf_X(x)dx\)
En general, es posible calcular el valor esperado de cualquier función \(g(.)\) de \(X\), nuevamente su cálculo depende de la naturaleza de la variable :
Discreta: \(E(g(X))=\sum g(x_i)f_X(x_i)\)
Continua: \(E(g(X))=\int g(x)f_X(x)dx\)
Para reflexionar: \(E(X-\mu)=?\)
¿En dónde se ubicarían los promedios de las siguientes distribuciones?
par(mfrow=c(1,2))
curve(dchisq(x, df = 4),col = 3, lwd = 2, from=0, to=9, ylab="f(x)", ylim=c(0,0.2))
curve(dnorm(x, mean=4, sd=2), col=2, lwd = 2, from=-1, to=9,ylab="f(x)")
Ejercicio: Calcular el valor esperado para la suma de dos dados
Al igual que en el caso muestral, la varianza es una medida de dispersión, pero en este caso de poblacional, la cual mide las distancia entre los valores que puede tomar la variable y su valor esperado. Se define como:
\[V(X)=E((X-\mu)^2)\]
¿Cuál de las tres distribuciones tiene mayor varianza?
curve(dnorm(x, mean=4, sd=2), col=2, lwd = 2, from=-3, to=11,ylab="f(x)")
curve(dnorm(x, mean=4, sd=4), col=3, lwd = 2, from=-3, to=11,ylab="f(x)",add=T)
curve(dnorm(x, mean=4, sd=6), col=4, lwd = 2, from=-3, to=11,ylab="f(x)",add=T)
Existen dos tipos de momentos: centrales y no centrales. Al igual que en la parte descriptiva, su finalidad es la de conocer la centralidad, la variabilidad o la forma de una distribución.
Momento central de orden r: \(\mu_r=E((X-\mu)^r)\)
Momento no central de orden r: \(\mu^,_r=E(X^r)\)
Identifique a qué momentos corresponden el valor esperado y la varianza.
La función generadora de momentos de una variable aleatoria, al igual que la función de distribución, identifica plenamente la distribución de dicha variable, se podría decir que es casi como una huella digital de la misma. Por definición, la función generadora de momentos corresponde a:
\[m_X(t)=E(e^{tX})\]
Su nombre se le atribuye al hecho de que a partir de ella es posible determinar los momentos de una v.a., así:
\[m'_X(0)=m_1\] \[m''_X(0)=m_2\] \[m^{(r)}(0)=m_r\]
donde \(m^{(r)}(0)\) es la \(r\)-ésima derivada de la función generadora de momentos evaluada en \(t=0\).
Son valores de la variable (percentiles, \(P_t\)) que delimitan superiormente una probabilidad determinada.
\[P_t=\left\lbrace\ x| F_X(x)=t/100\right\rbrace\] ## Ejercicio
Calcule los cuartiles para la suma de dos dados.
Barón F.J. Bioestadística. Universidad de Málaga. http://www.bioestadistica.uma.es/baron/bioestadistica.pdf
Soto O, Franco D. Fundamentos conceptuales de estadística. Universidad Nacional de Colombia. Notas de clase.
Blanco L. Probabilidad. Universidad Nacional de Colombia.