Dizemos que o par ordenado \((X,Y)\) é um vetor aleatório se seus componentes \(X\) e \(Y\) são variáveis aleatórias. Por se tratar de apenas duas v.a. então este é um vetor bidimensional.
Exemplo: Considere o experimento de selecionar um ponto ao acaso no quadrado unitário \[\Re = \{0<x<1\text{ e }0<y<1\}.\]
Denotamos por \(X\) e \(Y\) a primeira e a segund coordenada do ponto selecionado, respectivamente. Com isso, temos um vetor \((X,Y)\) que corresponde ao ponto selecionado.
Neste contexto, definimos para duas v.a.’s \(X\) e \(Y\) a função de distribuição acumulada conjunta da seguinte forma:
Definição
Um vetor \(Z=(X,Y)\) cujos componentes \(X\) e \(Y\) são variáveis aleatórias é denominado vetor aleatório.
A função de distribuição acumulada de \(Z\) é definida como sendo uma função \(F_Z=F_{X,Y}:\mathbb{R}^2 \rightarrow [0,1]\) tal que
\[F_{Z}(x,y) = P_Z\left(\{X \leq x\} \cap \{Y \leq y\}\right) = P_Z\left(X \leq x , Y \leq y\right); \ \forall(x,y) \ \in \mathbb{R}^2.\]
A distribuição acumulada de \(X\) pode ser obtida a partir da distribuição acumulada de \(Z\) da seguinte forma:
\[F_{X}(a) = P_X(X \leq a)=P_Z(X \leq a, Y < \infty) = P_Z(\lim_{b\to \infty}\{X\leq a,Y \leq b\})=\lim_{b\to \infty}P_Z(X \leq a, Y \leq b)\]
de onde concluímos que
\[F_X(a) = \lim_{b \to \infty}F_Z(a,b).\] Analogamente, podemos obter a distribuição marginal de \(Y\).
P1. A função de distribuição acumulada \(F_Z\) é não decrescente em cada variável, isto é, se \(x_1 \leq x_2\), então \[F_Z(x_1,y) \leq F_Z(x_2,y) \ \forall \ y \in \mathbb{R}\]
P2. \(F_Z\) é contínua à direita e tem limite à esquerda em cada variável, isto é, se \(x_n \downarrow x\) então \[F_Z(x_n,y) \downarrow F_Z(x,y) \ \forall \ y \in \mathbb{R}.\]
P3. Temos que \(\lim_{x \rightarrow -\infty}F_Z(x,y)=0.\)
Dado uma função \(g:\mathbb{R}^2\rightarrow \mathbb{R}\) uma função qualquer, o operador diferença é definido por \[\Delta_{a_1,b_1} g(x,y)=g(b_1,y)-g(a_1,y) \quad \text{e} \quad \Delta_{a_2,b_2} g(x,y)=g(x,b_2)-g(x,a_2),\] no qual \(-\infty < a_i< b_i< \infty\) para \(i=1,2\). Assim, temos que \[\Delta_{a_1,b_1}\Delta_{a_2,b_2}g(x,y)=\Delta_{a_1,b_1}\left[g(x,b_2)-g(x,a_1)\right]=g(b_1,b_2)-g(a_1,b_2)-g(b_1,a_2)+g(a_1,a_2).\] Com isso, temos a seguinte propriedade.
P4. Temos que \(\Delta_{a_1,b_1}\Delta_{a_2,b_2}F_Z(x,y) \geq 1.\)
Essa quarta propriedade é de fundamental importância, pois sem ela podemos encontrar uma função que satisfaz P1,P2 e P3 porém apresenta probabilidade negativa.
Teorema
Dado uma função \(F\) satisfazendo as propriedades P1, P2, P3 e P4, então existe um vetor aleatório \((X_1,X_2)\) em \(\mathbb{R}^2)\) tal que
\[P_{X_1,X_2}(X_1\leq x_1, X_2\leq x_2)=F_{X_1,X_2}(x_1,x_2)\]
ou seja, P1, P2, P3 e P4 são suficientes para caracterizar uma função de distribuição
Dizemos que um vetor aleatório \(Z=(X,Y)\) é discreto se as variáveis aleatórias \(X\) e \(Y\) são discretas.
Definição
Se \(Z=(X,Y)\) é um vetor aleatório discreto, definimos a função de probabilidade conjunta de \(X\) e \(Y\) por \[p_Z(x,y)=P_Z(X=x,Y=y).\]
A função de probabilidade marginal de \(X\) pode ser obtida de \(p_Z(x,y)\) por \[p_X(x)=P(X=x)=\sum_{y} p_Z(x,y).\]
E, similarmente, a função de probabilidade marginal de \(Y\) pode ser obtida de \(p_Z(x,y)\) por \[p_Y(y)=P(Y=y)=\sum_{x} p_Z(x,y).\]
Exemplo: Considere uma urna contendo 3 bolas vermelhas, 4 brancas e 5 azuis de onde são selecionadas 3 bolas ao acaso e sem reposição. Se \(X\) e \(Y\) denotam, respectivamente, o número de bolas vermelhas e brancas escolhidas, então a função de probabilidade conjunta de \(X\) e \(Y\), \(p_Z(i,j) = P_Z(X=i,Y=j)\), é dada por
\[p_Z(0,0)=\left(\begin{array}{c}5\\3\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{10}{220}\]
\[p_Z(0,1)=\left(\begin{array}{c}4\\1\end{array}\right)\left(\begin{array}{c}5\\2\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{40}{220}\]
\[p_Z(0,2)=\left(\begin{array}{c}4\\2\end{array}\right)\left(\begin{array}{c}5\\1\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{30}{220}\]
\[p_Z(0,3)=\left(\begin{array}{c}4\\3\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{4}{220}\]
\[p_Z(1,0)=\left(\begin{array}{c}3\\1\end{array}\right)\left(\begin{array}{c}5\\2\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{30}{220}\]
\[p_Z(1,1)=\left(\begin{array}{c}3\\1\end{array}\right)\left(\begin{array}{c}4\\1\end{array}\right)\left(\begin{array}{c}5\\1\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{60}{220}\]
\[p_Z(1,2)=\left(\begin{array}{c}3\\1\end{array}\right)\left(\begin{array}{c}4\\2\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{18}{220}\]
\[p_Z(2,0)=\left(\begin{array}{c}3\\2\end{array}\right)\left(\begin{array}{c}5\\1\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{15}{220}\]
\[p_Z(2,1)=\left(\begin{array}{c}3\\2\end{array}\right)\left(\begin{array}{c}4\\1\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{12}{220}\]
\[p_Z(3,0)=\left(\begin{array}{c}3\\3\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{1}{220}\]
Estas probabilidades podem ser expressas em forma de tabela, como mostrado abaixo.
| \(i\downarrow j\rightarrow\) | 0 | 1 | 2 | 3 |
|---|---|---|---|---|
| 0 | 10/220 | 40/220 | 30/220 | 4/220 |
| 1 | 30/220 | 60/220 | 18/220 | 0 |
| 2 | 15/220 | 12/220 | 0 | 0 |
| 3 | 1/220 | 0 | 0 | 0 |
Observe que é possível obter a função de probabilidade de \(X\) ao calcularmos as somas das linhas, enquanto que a função de probabilidade de \(Y\) é obtida ao calcularmos as somas das colunas. Como as funções de probabilidades individuais de \(X\) e \(Y\) aparecem na margem da tabela, são chamadas de funções de probabilidades marginais de \(X\) e \(Y\) respectivamente.
| \(i\downarrow j\rightarrow\) | 0 | 1 | 2 | 3 | \(P_X(X=i)\) |
|---|---|---|---|---|---|
| 0 | 10/220 | 40/220 | 30/220 | 4/220 | 84/220 |
| 1 | 30/220 | 60/220 | 18/220 | 0 | 108/220 |
| 2 | 15/220 | 12/220 | 0 | 0 | 27/220 |
| 3 | 1/220 | 0 | 0 | 0 | |
| \(P_Y(Y=j)\) | 56/220 | 112/220 | 48/220 | 4/220 |
Definição
Dizemos que \(X\) e \(Y\) são conjuntamente contínuas se existe uma função \(f_{X,Y}(x,y)\) definida para todos reais \(x\) e \(y\), tal que \[P_{X,Y}\left((X,Y)\in (a_1 , b_1) \times (a_2 , b_2)\right)=\int_{a_2}^{b_2}\int_{a_1}^{b_1} f_{X,Y}(x,y)dxdy.\]
para todo \(-\infty < a_i < b_i < \infty\) com \(i=1,2\). A função \(f_{X,Y}(x,y)\) é denominada função densidade de probabilidade conjunta de \(X\) e \(Y\).
Se \(X\) e \(Y\) são conjuntamente contínuas, então elas são individualmente contínuas e suas funções densidades de probabilidade podem ser obtidas da seguinte forma \[f_X(x)=\displaystyle \int_{-\infty}^{\infty} f_{X,Y}(x,y)dy\] e \[f_Y(y)=\int_{-\infty}^{\infty} f_{X,Y}(x,y)dx.\]
Exemplo: A função densidade conjunta de \(X\) e \(Y\) é dada por \[f_{X,Y}(x,y)=\left\{\begin{array}{l} 2e^{-x}e^{-2y} \ \hbox{se} \ 0 \ < \ x \ < \ \infty, \ 0 \ < \ y \ < \ \infty\\ 0 \ \hbox{caso contrário}\end{array}\right.\]
Calcule (a) \(P_{X,Y}\left(X > 1, Y < 1\right)\), (b) \(P_{X,Y}\left(X \ < \ Y\right)\) e (c) \(P_{X,Y}\left(X \ < \ a\right)\).
Temos que \[P_{X,Y}\left(X \ > \ 1, Y \ < \ 1\right)=\int_0^1\int_1^{\infty} 2e^{-x}e^{-2y}dxdy = e^{-1}(1-e^{-2}).\]
Temos que \[P_{X,Y}(X < Y)=\int_{0}^{\infty}\int_0^y 2e^{-x}e^{-2y}dxdy=\frac{1}{3}.\]
Temos que \[P_{X,Y}\left(X \ < \ a\right)=\int_0^a\int_0^{\infty}2e^{-2y}e^{-x}dydx=1-e^{-a}.\]
A partir do Teorema de Cálculo Fundamental bivariado, podemos verificar que \[\frac{\partial^2F_{X,Y}(x,y)}{\partial x\partial y}=f(x,y).\]
As variáveis aleatórias \(X_1, X_2, \ldots,X_n\) são independentes se, e somente se, qualquer grupo de eventos definidos pelas variáveis “individuais” são independentes.
Definição
As variáveis aleatórias \((X_1,\ldots ,X_n)\) são independentes se, e somente se, para quaisquer conjuntos de números reais \(B_1,B_2,\ldots,B_n\) com \(B_i \in X_i, \ \forall \ i=1, \ldots ,n\) temos que \[P_{X_1,\ldots,X_n}(X_1 \in B_1,\ldots , X_n \in B_n)=P_{X_1}(X_1 \in B_1)\ldots P_{X_n}(X_n \in B_n).\]
Ou seja, se \(X_1,X_2, \ldots ,X_n\) são variáveis aleatórias independentes,então \[F_{X_1,X_2, \ldots , X_n}(x_1,x_2, \ldots ,x_n)=\prod^n_{i=1}F_{X_i}(x_i), \ \forall (x_1, \ldots x_n) \in \mathbb{R}^n.\]
No caso de v.a. contínuas isso se traduz como \[f_{X_1,\dots ,X_n}(x_1, \cdots,x_n)=\prod^n_{i=1}f_{X_i}(x_i)~~~~~~~\forall (x_1,\dots, x_n) \in \mathbb{R}^n.\]
Já no caso de v.a. discretas: \[P_{X_1,\ldots,X_n}\left(X_1 = x_1, \cdots , X_n = x_n\right) = \prod_{i=1}^n P_{X_i}\left(X_i = x_i\right).\]
Exemplo: Suponha que \(X\) e \(Y\) tenham distribuição conjunta dada pela seguinte tabela:
| \(X\downarrow Y\rightarrow\) | 1 | 2 | 3 |
|---|---|---|---|
| 1 | 0 | 1/5 | 0 |
| 2 | 1/5 | 1/5 | 1/5 |
| 3 | 0 | 1/5 | 0 |
Determine as distribuições marginais e diga se \(X\) e \(Y\) são independentes. Para encontrarmos a distribuição marginal de \(X\) basta somarmos as linhas relativas a cada valor de \(X\) e para encontrar a distribuição marginal de \(Y\), basta somarmos as colunas relativas a cada valor de \(Y\). Desta forma, obtemos que
| \(X\downarrow Y\rightarrow\) | 1 | 2 | 3 | Marginal de \(X\) |
|---|---|---|---|---|
| 1 | 0 | 1/5 | 0 | 1/5 |
| 2 | 1/5 | 1/5 | 1/5 | 3/5 |
| 3 | 0 | 1/5 | 0 | 1/5 |
| Marginal de \(Y\) | 1/5 | 3/5 | 1/5 |
Observe que \(X\) e \(Y\) não são independentes, pois \(\frac{1}{5}=P_{X,Y}(X=2,Y=2)\neq P_X(X=2)P_Y(Y=2)=\frac{9}{25}\).
Exemplo: Dado que \(f(X)=f_{X,Y}(x,y)=e^{-(x+y)}, x\geq 0, y\geq 0\), podemos dizer que \(X\) e \(Y\) são independentes?
\[ \begin{aligned} f_X(x)&=\int_{0}^{\infty}f_{X,Y}(x,y)dy \\ &= \int_{0}^{\infty}e^{-(x+y)})dy \\ &= e^{-x}\int_{0}^{\infty}e^{-y}dy \\ &= e^{-x}\Big(-e^{-y}\Big|_0^{\infty}\Big) \\ &= e^{-x} \end{aligned} \] \[ \begin{aligned} f_Y(y)&=\int_{0}^{\infty}f_{X,Y}(x,y)dx \\ &= \int_{0}^{\infty}e^{-(x+y)})dx \\ &= e^{-y}\int_{0}^{\infty}e^{-x}dx \\ &= e^{-y}\Big(-e^{-x}\Big|_0^{\infty}\Big) \\ &= e^{-y} \end{aligned} \]
Como \(f_{X,Y}(x,y)=f_X(x)f_Y(y)\), \(\int_0^\infty f_X(x)dx = 1\) e \(\int_0^\infty f_Y(y)dy = 1\), então, \(X\) e \(Y\) são independentes.
Teorema
Sejam \(X\) e \(Y\) variáveis aleatórias independentes, com funções geradoras de momentos \(M_X(t)\) e \(M_Y(t)\). Então, a fgm da v.a. \(Z=X+Y\) é dada por \[M_Z(t)=M_X(t)M_Y(t).\]
Exemplo: Sejam \(X\sim N(\mu,\sigma^2)\) e \(Y\sim N(\gamma,\tau^2)\) v.a. independentes. As fgms de \(X\) e \(Y\) são \[M_X(t)=e^{(\mu t+\frac{\sigma^2t^2}{2})} \text{ e } M_Y(t)=e^{(\gamma t+\frac{\tau^2t^2}{2})}\]
Portanto, se \(Z=X+Y\), \(M_Z(t)=e^{(\mu t+\frac{\sigma^2t^2}{2})}e^{(\gamma t+\frac{\tau^2t^2}{2})}=e^{\Big((\mu+\gamma)t+\frac{t^2(\sigma^2+\tau^2)}{2}\Big)}\)
Repare que \(Z\sim N(\mu+\gamma,\sigma^2+\tau^2)\). Isto é, este resultado mostra que a soma de duas v.a.s normais independentes resultam em uma nova v.a. normal com média sendo a soma das médias e a variância sendo a soma das variâncias.
Como para dois eventos quaisquer \(E\) e \(F\), a probabilidade condicional de \(E\) dado \(F\) é definida, desde que \(P(F) \ > \ 0\), por \[P(E|F)=\frac{P(E\cap F)}{P(F)}\]
então, se \(X\) e \(Y\) são variáveis aleatórias discretas, é natural definir a função de probabilidade condicional de \(X\) dado que \(Y=y\), por
\[p_{X|Y}(x|y)=P_{X|Y}(X=x|Y=y)=\frac{P_{X,Y}(X=x,Y=y)}{P_Y(Y=y)}=\frac{p_{X,Y}(x,y)}{p_Y(y)}\]
para todos os valores de \(y\) tais que \(p_Y(y) > 0\). Similarmente, a função de distribuição acumulada da probabilidade condicional de \(X\) dado que \(Y=y\) é definida, para todo \(y\) tal que \(p_Y(y) > 0\), por \[F_{X|Y}(x|y)=P_{X|Y}(X\leq x| Y\leq y)=\sum_{a\leq x}p_{X|Y}(a|y)\]
Se \(X\) é independente de \(Y\), então a função de probabilidade condicional e a função de distribuição acumulada são as mesmas do caso não condicional. Isto acontece pois, se \(X\) é independente de \(Y\), então \[p_{X|Y}(x|y)=P_{X|Y}(X=x|Y=y)=\frac{P_{X,Y}(X=x,Y=y)}{P_Y(Y=y)}=\frac{P_X(X=x)P_Y(Y=y)}{P_Y(Y=y)}=P(X=x).\]
Exemplo: Suponha que \(p_{X,Y}(x,y)\), a função de probabilidade conjunta de \(X\) e \(Y\) seja dada por \[p_{X,Y}(0,0)=0,4 \qquad p_{X,Y}(0,1)=0,2 \qquad p_{X,Y}(1,0)=0,1 \qquad p_{X,Y}(1,1)=0,3.\]
Calcule a função de probabilidade condicional de \(X\), dado que \(Y=1\).
\[p_{X|Y}(x,1)=\frac{P_{X,Y}(X=x,Y=1)}{P_Y(y=1)}\] \[P_Y(y=1)=\sum_xp_{X,Y}(x,1)=p_{X,Y}(0,1)+p_{X,Y}(1,1)=0,2+0,3=0,5\]
Então, \(p_{X|Y}(0,1)=\frac{0,2}{0,5}=\frac{2}{5}\) e \(p_{X|Y}(1,1)=\frac{0,3}{0,5}=\frac{3}{5}\)
Se \(X\) e \(Y\) são variáveis aleatórias com função densidade de probabilidade conjunta \(f_{X,Y}(x,y)\), então a função densidade de probabilidade de \(X\), dado que \(Y=y\) é definida para todos os valores \(y\) tais que \(f_Y(y) > 0\), por \[f_{X|Y}(x|y)=\frac{f_{X,Y}(x,y)}{f_Y(y)}.\]
O uso de densidades condicionais nos permite definir probabilidades condicionais de eventos associados com uma variável aleatória quando é dado o valor de uma segunda variável aleatória. Isto é, se \(X\) e \(Y\) são conjuntamente distribuídas, então para qualquer conjunto \(A\), \[P_{X|Y}(X\in A|Y=y)=\int_A f_{X|Y}(x|y) dx.\]
Exemplo: A densidade conjunta de \(X\) e \(Y\) é dada por \(f_{X,Y}(x,y)=\frac{15}{2}x(2-x-y), 0<x,y<1\). Calcule a densidade condicional de \(X\), dado que \(Y=y\), quando \(0 < y < 1\).
Para \(0 < x,y < 1\), temos que
\[ \begin{aligned} f_{X|Y}(x|y)&=\frac{f_{X,Y}(x,y)}{f_Y(y)}\\ &=\frac{f_{X,Y}(x,y)}{\int_{-\infty}^{\infty}f(x,y)dx}\\ &=\frac{\frac{15}{2}x(2-x-y)}{\int_0^1\frac{15}{2}x(2-x-y)dx} \\ &=\frac{x(2-x-y)}{\frac{2}{3}-\frac{1}{2}y} \\ &=\frac{6x(2-x-y)}{4-3y} \end{aligned} \]