Vetores aleatórios

Introdução

Dizemos que o par ordenado \((X,Y)\) é um vetor aleatório se seus componentes \(X\) e \(Y\) são variáveis aleatórias. Por se tratar de apenas duas v.a. então este é um vetor bidimensional.

Exemplo: Considere o experimento de selecionar um ponto ao acaso no quadrado unitário \[\Re = \{0<x<1\text{ e }0<y<1\}.\]

Denotamos por \(X\) e \(Y\) a primeira e a segund coordenada do ponto selecionado, respectivamente. Com isso, temos um vetor \((X,Y)\) que corresponde ao ponto selecionado.

Neste contexto, definimos para duas v.a.’s \(X\) e \(Y\) a função de distribuição acumulada conjunta da seguinte forma:

Definição

  1. Um vetor \(Z=(X,Y)\) cujos componentes \(X\) e \(Y\) são variáveis aleatórias é denominado vetor aleatório.

  2. A função de distribuição acumulada de \(Z\) é definida como sendo uma função \(F_Z=F_{X,Y}:\mathbb{R}^2 \rightarrow [0,1]\) tal que

\[F_{Z}(x,y) = P_Z\left(\{X \leq x\} \cap \{Y \leq y\}\right) = P_Z\left(X \leq x , Y \leq y\right); \ \forall(x,y) \ \in \mathbb{R}^2.\]

A distribuição acumulada de \(X\) pode ser obtida a partir da distribuição acumulada de \(Z\) da seguinte forma:

\[F_{X}(a) = P_X(X \leq a)=P_Z(X \leq a, Y < \infty) = P_Z(\lim_{b\to \infty}\{X\leq a,Y \leq b\})=\lim_{b\to \infty}P_Z(X \leq a, Y \leq b)\]

de onde concluímos que

\[F_X(a) = \lim_{b \to \infty}F_Z(a,b).\] Analogamente, podemos obter a distribuição marginal de \(Y\).

Propriedades da fda

P1. A função de distribuição acumulada \(F_Z\) é não decrescente em cada variável, isto é, se \(x_1 \leq x_2\), então \[F_Z(x_1,y) \leq F_Z(x_2,y) \ \forall \ y \in \mathbb{R}\]

P2. \(F_Z\) é contínua à direita e tem limite à esquerda em cada variável, isto é, se \(x_n \downarrow x\) então \[F_Z(x_n,y) \downarrow F_Z(x,y) \ \forall \ y \in \mathbb{R}.\]

P3. Temos que \(\lim_{x \rightarrow -\infty}F_Z(x,y)=0.\)

Dado uma função \(g:\mathbb{R}^2\rightarrow \mathbb{R}\) uma função qualquer, o operador diferença é definido por \[\Delta_{a_1,b_1} g(x,y)=g(b_1,y)-g(a_1,y) \quad \text{e} \quad \Delta_{a_2,b_2} g(x,y)=g(x,b_2)-g(x,a_2),\] no qual \(-\infty < a_i< b_i< \infty\) para \(i=1,2\). Assim, temos que \[\Delta_{a_1,b_1}\Delta_{a_2,b_2}g(x,y)=\Delta_{a_1,b_1}\left[g(x,b_2)-g(x,a_1)\right]=g(b_1,b_2)-g(a_1,b_2)-g(b_1,a_2)+g(a_1,a_2).\] Com isso, temos a seguinte propriedade.

P4. Temos que \(\Delta_{a_1,b_1}\Delta_{a_2,b_2}F_Z(x,y) \geq 1.\)

Essa quarta propriedade é de fundamental importância, pois sem ela podemos encontrar uma função que satisfaz P1,P2 e P3 porém apresenta probabilidade negativa.

Teorema

Dado uma função \(F\) satisfazendo as propriedades P1, P2, P3 e P4, então existe um vetor aleatório \((X_1,X_2)\) em \(\mathbb{R}^2)\) tal que

\[P_{X_1,X_2}(X_1\leq x_1, X_2\leq x_2)=F_{X_1,X_2}(x_1,x_2)\]

ou seja, P1, P2, P3 e P4 são suficientes para caracterizar uma função de distribuição

Distribuições conjuntas e marginais

Dizemos que um vetor aleatório \(Z=(X,Y)\) é discreto se as variáveis aleatórias \(X\) e \(Y\) são discretas.

Definição

Se \(Z=(X,Y)\) é um vetor aleatório discreto, definimos a função de probabilidade conjunta de \(X\) e \(Y\) por \[p_Z(x,y)=P_Z(X=x,Y=y).\]

A função de probabilidade marginal de \(X\) pode ser obtida de \(p_Z(x,y)\) por \[p_X(x)=P(X=x)=\sum_{y} p_Z(x,y).\]

E, similarmente, a função de probabilidade marginal de \(Y\) pode ser obtida de \(p_Z(x,y)\) por \[p_Y(y)=P(Y=y)=\sum_{x} p_Z(x,y).\]


Exemplo: Considere uma urna contendo 3 bolas vermelhas, 4 brancas e 5 azuis de onde são selecionadas 3 bolas ao acaso e sem reposição. Se \(X\) e \(Y\) denotam, respectivamente, o número de bolas vermelhas e brancas escolhidas, então a função de probabilidade conjunta de \(X\) e \(Y\), \(p_Z(i,j) = P_Z(X=i,Y=j)\), é dada por

\[p_Z(0,0)=\left(\begin{array}{c}5\\3\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{10}{220}\]

\[p_Z(0,1)=\left(\begin{array}{c}4\\1\end{array}\right)\left(\begin{array}{c}5\\2\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{40}{220}\]

\[p_Z(0,2)=\left(\begin{array}{c}4\\2\end{array}\right)\left(\begin{array}{c}5\\1\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{30}{220}\]

\[p_Z(0,3)=\left(\begin{array}{c}4\\3\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{4}{220}\]

\[p_Z(1,0)=\left(\begin{array}{c}3\\1\end{array}\right)\left(\begin{array}{c}5\\2\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{30}{220}\]

\[p_Z(1,1)=\left(\begin{array}{c}3\\1\end{array}\right)\left(\begin{array}{c}4\\1\end{array}\right)\left(\begin{array}{c}5\\1\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{60}{220}\]

\[p_Z(1,2)=\left(\begin{array}{c}3\\1\end{array}\right)\left(\begin{array}{c}4\\2\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{18}{220}\]

\[p_Z(2,0)=\left(\begin{array}{c}3\\2\end{array}\right)\left(\begin{array}{c}5\\1\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{15}{220}\]

\[p_Z(2,1)=\left(\begin{array}{c}3\\2\end{array}\right)\left(\begin{array}{c}4\\1\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{12}{220}\]

\[p_Z(3,0)=\left(\begin{array}{c}3\\3\end{array}\right)/\left(\begin{array}{c}12\\3\end{array}\right)=\frac{1}{220}\]

Estas probabilidades podem ser expressas em forma de tabela, como mostrado abaixo.

\(i\downarrow j\rightarrow\) 0 1 2 3
0 10/220 40/220 30/220 4/220
1 30/220 60/220 18/220 0
2 15/220 12/220 0 0
3 1/220 0 0 0

Observe que é possível obter a função de probabilidade de \(X\) ao calcularmos as somas das linhas, enquanto que a função de probabilidade de \(Y\) é obtida ao calcularmos as somas das colunas. Como as funções de probabilidades individuais de \(X\) e \(Y\) aparecem na margem da tabela, são chamadas de funções de probabilidades marginais de \(X\) e \(Y\) respectivamente.

\(i\downarrow j\rightarrow\) 0 1 2 3 \(P_X(X=i)\)
0 10/220 40/220 30/220 4/220 84/220
1 30/220 60/220 18/220 0 108/220
2 15/220 12/220 0 0 27/220
3 1/220 0 0 0
\(P_Y(Y=j)\) 56/220 112/220 48/220 4/220

Definição

Dizemos que \(X\) e \(Y\) são conjuntamente contínuas se existe uma função \(f_{X,Y}(x,y)\) definida para todos reais \(x\) e \(y\), tal que \[P_{X,Y}\left((X,Y)\in (a_1 , b_1) \times (a_2 , b_2)\right)=\int_{a_2}^{b_2}\int_{a_1}^{b_1} f_{X,Y}(x,y)dxdy.\]

para todo \(-\infty < a_i < b_i < \infty\) com \(i=1,2\). A função \(f_{X,Y}(x,y)\) é denominada função densidade de probabilidade conjunta de \(X\) e \(Y\).

Se \(X\) e \(Y\) são conjuntamente contínuas, então elas são individualmente contínuas e suas funções densidades de probabilidade podem ser obtidas da seguinte forma \[f_X(x)=\displaystyle \int_{-\infty}^{\infty} f_{X,Y}(x,y)dy\] e \[f_Y(y)=\int_{-\infty}^{\infty} f_{X,Y}(x,y)dx.\]


Exemplo: A função densidade conjunta de \(X\) e \(Y\) é dada por \[f_{X,Y}(x,y)=\left\{\begin{array}{l} 2e^{-x}e^{-2y} \ \hbox{se} \ 0 \ < \ x \ < \ \infty, \ 0 \ < \ y \ < \ \infty\\ 0 \ \hbox{caso contrário}\end{array}\right.\]

Calcule (a) \(P_{X,Y}\left(X > 1, Y < 1\right)\), (b) \(P_{X,Y}\left(X \ < \ Y\right)\) e (c) \(P_{X,Y}\left(X \ < \ a\right)\).

  1. Temos que \[P_{X,Y}\left(X \ > \ 1, Y \ < \ 1\right)=\int_0^1\int_1^{\infty} 2e^{-x}e^{-2y}dxdy = e^{-1}(1-e^{-2}).\]

  2. Temos que \[P_{X,Y}(X < Y)=\int_{0}^{\infty}\int_0^y 2e^{-x}e^{-2y}dxdy=\frac{1}{3}.\]

  3. Temos que \[P_{X,Y}\left(X \ < \ a\right)=\int_0^a\int_0^{\infty}2e^{-2y}e^{-x}dydx=1-e^{-a}.\]


A partir do Teorema de Cálculo Fundamental bivariado, podemos verificar que \[\frac{\partial^2F_{X,Y}(x,y)}{\partial x\partial y}=f(x,y).\]

Independência

As variáveis aleatórias \(X_1, X_2, \ldots,X_n\) são independentes se, e somente se, qualquer grupo de eventos definidos pelas variáveis “individuais” são independentes.

Definição

As variáveis aleatórias \((X_1,\ldots ,X_n)\) são independentes se, e somente se, para quaisquer conjuntos de números reais \(B_1,B_2,\ldots,B_n\) com \(B_i \in X_i, \ \forall \ i=1, \ldots ,n\) temos que \[P_{X_1,\ldots,X_n}(X_1 \in B_1,\ldots , X_n \in B_n)=P_{X_1}(X_1 \in B_1)\ldots P_{X_n}(X_n \in B_n).\]


Ou seja, se \(X_1,X_2, \ldots ,X_n\) são variáveis aleatórias independentes,então \[F_{X_1,X_2, \ldots , X_n}(x_1,x_2, \ldots ,x_n)=\prod^n_{i=1}F_{X_i}(x_i), \ \forall (x_1, \ldots x_n) \in \mathbb{R}^n.\]

No caso de v.a. contínuas isso se traduz como \[f_{X_1,\dots ,X_n}(x_1, \cdots,x_n)=\prod^n_{i=1}f_{X_i}(x_i)~~~~~~~\forall (x_1,\dots, x_n) \in \mathbb{R}^n.\]

Já no caso de v.a. discretas: \[P_{X_1,\ldots,X_n}\left(X_1 = x_1, \cdots , X_n = x_n\right) = \prod_{i=1}^n P_{X_i}\left(X_i = x_i\right).\]

Exemplo: Suponha que \(X\) e \(Y\) tenham distribuição conjunta dada pela seguinte tabela:

\(X\downarrow Y\rightarrow\) 1 2 3
1 0 1/5 0
2 1/5 1/5 1/5
3 0 1/5 0

Determine as distribuições marginais e diga se \(X\) e \(Y\) são independentes. Para encontrarmos a distribuição marginal de \(X\) basta somarmos as linhas relativas a cada valor de \(X\) e para encontrar a distribuição marginal de \(Y\), basta somarmos as colunas relativas a cada valor de \(Y\). Desta forma, obtemos que

\(X\downarrow Y\rightarrow\) 1 2 3 Marginal de \(X\)
1 0 1/5 0 1/5
2 1/5 1/5 1/5 3/5
3 0 1/5 0 1/5
Marginal de \(Y\) 1/5 3/5 1/5

Observe que \(X\) e \(Y\) não são independentes, pois \(\frac{1}{5}=P_{X,Y}(X=2,Y=2)\neq P_X(X=2)P_Y(Y=2)=\frac{9}{25}\).

Exemplo: Dado que \(f(X)=f_{X,Y}(x,y)=e^{-(x+y)}, x\geq 0, y\geq 0\), podemos dizer que \(X\) e \(Y\) são independentes?

\[ \begin{aligned} f_X(x)&=\int_{0}^{\infty}f_{X,Y}(x,y)dy \\ &= \int_{0}^{\infty}e^{-(x+y)})dy \\ &= e^{-x}\int_{0}^{\infty}e^{-y}dy \\ &= e^{-x}\Big(-e^{-y}\Big|_0^{\infty}\Big) \\ &= e^{-x} \end{aligned} \] \[ \begin{aligned} f_Y(y)&=\int_{0}^{\infty}f_{X,Y}(x,y)dx \\ &= \int_{0}^{\infty}e^{-(x+y)})dx \\ &= e^{-y}\int_{0}^{\infty}e^{-x}dx \\ &= e^{-y}\Big(-e^{-x}\Big|_0^{\infty}\Big) \\ &= e^{-y} \end{aligned} \]

Como \(f_{X,Y}(x,y)=f_X(x)f_Y(y)\), \(\int_0^\infty f_X(x)dx = 1\) e \(\int_0^\infty f_Y(y)dy = 1\), então, \(X\) e \(Y\) são independentes.

Teorema

Sejam \(X\) e \(Y\) variáveis aleatórias independentes, com funções geradoras de momentos \(M_X(t)\) e \(M_Y(t)\). Então, a fgm da v.a. \(Z=X+Y\) é dada por \[M_Z(t)=M_X(t)M_Y(t).\]


Exemplo: Sejam \(X\sim N(\mu,\sigma^2)\) e \(Y\sim N(\gamma,\tau^2)\) v.a. independentes. As fgms de \(X\) e \(Y\) são \[M_X(t)=e^{(\mu t+\frac{\sigma^2t^2}{2})} \text{ e } M_Y(t)=e^{(\gamma t+\frac{\tau^2t^2}{2})}\]

Portanto, se \(Z=X+Y\), \(M_Z(t)=e^{(\mu t+\frac{\sigma^2t^2}{2})}e^{(\gamma t+\frac{\tau^2t^2}{2})}=e^{\Big((\mu+\gamma)t+\frac{t^2(\sigma^2+\tau^2)}{2}\Big)}\)

Repare que \(Z\sim N(\mu+\gamma,\sigma^2+\tau^2)\). Isto é, este resultado mostra que a soma de duas v.a.s normais independentes resultam em uma nova v.a. normal com média sendo a soma das médias e a variância sendo a soma das variâncias.

Distribuição condicional: caso discreto

Como para dois eventos quaisquer \(E\) e \(F\), a probabilidade condicional de \(E\) dado \(F\) é definida, desde que \(P(F) \ > \ 0\), por \[P(E|F)=\frac{P(E\cap F)}{P(F)}\]

então, se \(X\) e \(Y\) são variáveis aleatórias discretas, é natural definir a função de probabilidade condicional de \(X\) dado que \(Y=y\), por

\[p_{X|Y}(x|y)=P_{X|Y}(X=x|Y=y)=\frac{P_{X,Y}(X=x,Y=y)}{P_Y(Y=y)}=\frac{p_{X,Y}(x,y)}{p_Y(y)}\]

para todos os valores de \(y\) tais que \(p_Y(y) > 0\). Similarmente, a função de distribuição acumulada da probabilidade condicional de \(X\) dado que \(Y=y\) é definida, para todo \(y\) tal que \(p_Y(y) > 0\), por \[F_{X|Y}(x|y)=P_{X|Y}(X\leq x| Y\leq y)=\sum_{a\leq x}p_{X|Y}(a|y)\]

Se \(X\) é independente de \(Y\), então a função de probabilidade condicional e a função de distribuição acumulada são as mesmas do caso não condicional. Isto acontece pois, se \(X\) é independente de \(Y\), então \[p_{X|Y}(x|y)=P_{X|Y}(X=x|Y=y)=\frac{P_{X,Y}(X=x,Y=y)}{P_Y(Y=y)}=\frac{P_X(X=x)P_Y(Y=y)}{P_Y(Y=y)}=P(X=x).\]

Exemplo: Suponha que \(p_{X,Y}(x,y)\), a função de probabilidade conjunta de \(X\) e \(Y\) seja dada por \[p_{X,Y}(0,0)=0,4 \qquad p_{X,Y}(0,1)=0,2 \qquad p_{X,Y}(1,0)=0,1 \qquad p_{X,Y}(1,1)=0,3.\]

Calcule a função de probabilidade condicional de \(X\), dado que \(Y=1\).

\[p_{X|Y}(x,1)=\frac{P_{X,Y}(X=x,Y=1)}{P_Y(y=1)}\] \[P_Y(y=1)=\sum_xp_{X,Y}(x,1)=p_{X,Y}(0,1)+p_{X,Y}(1,1)=0,2+0,3=0,5\]

Então, \(p_{X|Y}(0,1)=\frac{0,2}{0,5}=\frac{2}{5}\) e \(p_{X|Y}(1,1)=\frac{0,3}{0,5}=\frac{3}{5}\)

Distribuição condicional: caso contínuo

Se \(X\) e \(Y\) são variáveis aleatórias com função densidade de probabilidade conjunta \(f_{X,Y}(x,y)\), então a função densidade de probabilidade de \(X\), dado que \(Y=y\) é definida para todos os valores \(y\) tais que \(f_Y(y) > 0\), por \[f_{X|Y}(x|y)=\frac{f_{X,Y}(x,y)}{f_Y(y)}.\]

O uso de densidades condicionais nos permite definir probabilidades condicionais de eventos associados com uma variável aleatória quando é dado o valor de uma segunda variável aleatória. Isto é, se \(X\) e \(Y\) são conjuntamente distribuídas, então para qualquer conjunto \(A\), \[P_{X|Y}(X\in A|Y=y)=\int_A f_{X|Y}(x|y) dx.\]

Exemplo: A densidade conjunta de \(X\) e \(Y\) é dada por \(f_{X,Y}(x,y)=\frac{15}{2}x(2-x-y), 0<x,y<1\). Calcule a densidade condicional de \(X\), dado que \(Y=y\), quando \(0 < y < 1\).

Para \(0 < x,y < 1\), temos que

\[ \begin{aligned} f_{X|Y}(x|y)&=\frac{f_{X,Y}(x,y)}{f_Y(y)}\\ &=\frac{f_{X,Y}(x,y)}{\int_{-\infty}^{\infty}f(x,y)dx}\\ &=\frac{\frac{15}{2}x(2-x-y)}{\int_0^1\frac{15}{2}x(2-x-y)dx} \\ &=\frac{x(2-x-y)}{\frac{2}{3}-\frac{1}{2}y} \\ &=\frac{6x(2-x-y)}{4-3y} \end{aligned} \]