1 Introducción

Hasta el momento hemos visto cómo calcular probabilidades de una variable aleatoria a partir de la función de densidad o de la función de probabilidad, segùn sea el caso. Las distribuciones conjuntas permiten describir el comportamiento probabilístico de dos o más variables simultáneamente. Adicionalmente, a partir de las distribuciones conjuntas, es posible determinar las distribuciones marginales de las variables involucradas, así como calcular parámetros de relación lineal entre las variables involucradas, tales como la covarianza poblacional o el coeficiente de correlación poblacional.

2 Objetivos

  • Comprender el funcionamiento de las distribuciones conjuntas.
  • Comprender el concepto de independencia entre variables aleatorias.

3 Competencias

Al finalizar este capítulo, el estudiante estará en capacidad de calcular probabilidades a partir de distribuciones conjuntas discretas,al igual que encontrar las distribuciones marginales a partir de la distribución conjunta.De igual forma, sin importar si las variables son continuas o discretas, deberá poder determinar si un conjunto de variables son independientes.

4 Vector aleatorio (V.A.)

Un V.A. \(\boldsymbol{X}\) es un vector compuesto por un conjunto de variables aleatorias: \[\boldsymbol{X}=(X_1,X_2,..., X_p)\] donde \(X_1\), \(X_2\),…, \(X_p\) son variables aleatorias (v.a.s).

Dichas variables, pueden ser todas discretas, todas continuas o unas discretas y otras continuas.

5 Distribución conjunta

5.1 Vector discreto:

Sean \(X_1,...,X_p\) variables aleatorias discretas, se define su función de probabilidad conjunta como:

\[f_{X_1,...,X_p}(x_1,...,x_p)=P(X_1=x_1,..., X_p=x_p)\]

En particular, si \(p=2\):

\[f_{X_1,X_p}(x_1,x_2)=P(\left\lbrace X_1=x_1\right\rbrace\cap\left\lbrace X_2=x_2\right\rbrace )\]

5.1.1 Propiedades

  1. \(\sum_{x_1,x_2}f_{X_1,X_2}(x_1,x_2)=1\)
  2. \(\sum_{x_1}f_{X_1,X_2}(x_1,x_2)=f_{X_2}(x_2)\) y \(\sum_{x_2}f_{X_1,X_2}(x_1,x_2)=f_{X_1}(x_1)\)

Ejemplo:Supongamos que estamos en un experimento clínico controlado, en el cuál se han medido dos variables:

\[X=\begin{cases} -1\text{ si fue asignado al tratamiento convencional}\\ 0\text{ si fue asignado a placebo}\\ 1\text{ si fue asignado al tratamiento experimental} \end{cases}\]

\[Y=\begin{cases} 1\text{ si al finalizar el estudio el paciente presentó el deenlace}\\ 0\text{ en otro caso} \end{cases}\]

Y que su función de probabilidad conjunta está dada por:

X Y 0 1
-1 0.34 0.15 0.49
0 0.08 0.05 0.13
1 0.18 0.2 0.38
Total 0.6 0.4 1

Ésto significa que: \[ f_{X,Y}(-1,0)=P(X=-1,Y=0)=P(\left\lbrace\text{Tratamiento convencional}\right\rbrace\cap\left\lbrace\text{No presentar el desenlace} \right\rbrace)=0.34 \] Y que las distribuciones marginales están dadas por:

\[f_X(x)=\begin{cases} 0.49\text{ si }x=-1\\ 0.13\text{ si }x=0\\ 0.38\text{ si }x=-1\\ \end{cases}\]

\[f_Y(y)=\begin{cases} 0.6\text{ si }y=0\\ 0.4\text{ si }y=1\\ \end{cases}\]

6 Vector con v.a.s continuas

Al igual que en el caso univariado, cuando las variables con continuas, las probabilidades a calcular son en intervalos de las variables contenidas en el V.A.. Para el caso más sencillo, con un vector bivariado \(\boldsymbol{X}=(X_1,X_2)\), la función de densidad conjunta se utiliza como sigue:

\[P(a<X_1<b,c<X_2<d) =\int_{a}^{b}\int_{c}^{d}f_{X_1,X_2}(x_1,x_2)dx_2dx_1\]

Es decir que en este caso, la probabilidad de que \(a<X_1<b\) y \(c<X_2<d\) es el volumen contenido debajo de la curva \(f_{X_1,X_2}(x_1,x_2)\) en dichos intervalos.

6.1 Propiedades

  1. \(\int_{-\infty}^{\infty}\int_{-\infty}^{\infty}f_{X_1,X_2}(x_1,x_2)dx_1dx_2=1\)
  2. \(\int_{-\infty}^{\infty}f_{X_1,X_2}(x_1,x_2)dx_1=f_{X_2}(x_2)\) y \(\int_{-\infty}^{\infty}f_{X_1,X_2}(x_1,x_2)dx_2=f_{X_1}(x_1)\)

7 Relación lineal entre dos variables (poblacional)

7.1 Valor esperado

De la misma forma que en el caso univariado, es posible calcular el valor esperado, pero en este caso de una función de las diferentes variables del V.A. En el casso particular bivariado:

\[E(g(X_1,X_2))=\begin{cases} \sum_{x_1,x_2}g(x_1,x_2)f_{X_1,X_2}(x_1,x_2)\text{ para }X_1\text{ y }X_2\text{ discretas}\\ \int_{-\infty}^{\infty}\int_{-\infty}^{\infty}g(x_1,x_2)f_{X_1,X_2}(x_1,x_2)dx_1dx_2\text{ para }X_1\text{ y }X_2\text{ continuas} \end{cases}\]

7.1.1 Covarianza y correlación

Tal como en el caso descriptivo, la covarianza mide la relación lineal que existe entre dos variables, pero en este caso, a nivel poblacional. Su cálculo es un caso específico del valor esperado, con \(g(X_1,X_2)=(X_1-\mu_{X_1})(X_2-\mu_{X_2})\), así:

\[COV(X_1,X_2)=E\left[(X_1-\mu_{X_1})(X_2-\mu_{X_2}) \right]\]

7.1.1.1 Ejercicios:

  1. Muestre que se cumple: \(COV(X_1,X_2)=E(X_1X_2)-E(X_1)E(X_2)\)
  2. \(COV(X_1,X_1)=?\)

El valor de la covarianza depende de la magnitud de las variables y por lo tanto de la escala de las mismas, es por ésto que un mejor indicador de la relación es el coeficiente de correlación poblacional, \(\rho_{X_1,X_2}\), el cuál toma valores entre \(-1\) (correlación lineal perfecta inversa) y \(1\) (correlación lineal perfecta directa):

\[\rho_{X_1,X_2}=\frac{COV(X_1,X_2)}{\sqrt{V(X_1)V(X_2)}}\]

8 Independencia entre variables aleatorias

Dadas \(X_1, X_2,...,X_p\) v.a.s, se dice que son independientes si y solo si:

\[f_{X_1,X_2,...,X_p}(x_1,x_2,...,x_p)=\prod_{i=1}^{n}f_{X_i}(x_i)\]

En particular, cuando \(p=2\): \[f_{X_1,X_2}(x_1,x_2)=f_{X_1}(x_1)f_{X_2}(x_2)\]

8.1 Ejercicios:

  1. En el ejemplo anterior, verifique si \(X_1\) y \(X_2\) son independientes
  2. \(E(X_1X_2)=?\) si \(X_1\) y \(X_2\) son independientes
  3. \(COV(X_1,X_2)=?\) si \(X_1\) y \(X_2\) son independientes

9 Bibliografía