require(gtools)
require(tidyverse)
require(ggforce)  
options(kableExtra.latex.load_packages = TRUE)
require(kableExtra)
require(mosaicCalc)
require(gridExtra)
require(numDeriv)
require(pracma)
#Para numerar tabelas e figuras:
require(captioner)
fig_nums <- captioner(prefix = "Figura")
table_nums <- captioner(prefix = "Tabela")
quadro_nums<- captioner(prefix="Quadro")

Esperança de Variáveis Aleatórias

O conceito de valor esperado ou média parece ter sido historicamente desenvolvido para avaliar ganhos em jogos de azar. O retorno financeiro, obtido em uma jogada de dados ou rodada de um certo jogo de cartas, seria imprevisível. A questão de interesse era avaliar esse retorno após várias jogadas. Desta forma ficaria mais fácil contabilizar perdas e ganhos. Com o auxílio do formalismo matemático, essas ideias foram estabelecidas em definições rigorosas, incluindo os casos discreto e contínuo.

-Magalhães, M.N; Probabilidade e Variáveis Aleatórias. 3ª Edição. Edusp.

Valor Esperado para Variáveis Aleatórias Discretas

Seja \(X\) uma variável aleatória discreta com função de probabilidade \(P\) e valor observado \(x_i, i = 1,2,\ldots,n.\) O valor esperado, ou esperança matemática ou média de \(X\) é definido por

\[ \small E(X) = \mu_X = \sum\limits_{i=1}^{n}x_iP(X=x_i), \quad i = 1, 2, \ldots, n. \]

Valor Esperado para Variáveis Aleatórias Contínuas

Seja \(X\) uma variável aleatória contínua com função densidade \(f_X\). O valor esperado, ou esperança matemática ou média de \(X\) é definido por

\[ \small E(X) = \int\limits_{-\infty}^{\infty}xf_X(x)dx, \] desde que a integral esteja bem definida. \(E(X)\) vai estar bem definida se a integral em pelo menos um desses intervalos, for finita; isto é, \[ \small E(X) = \int\limits_{-\infty}^{0}xf_X(x)dx < \infty \quad \mbox{ou} \quad \int\limits_{0}^{\infty}xf_X(x)dx < \infty. \]

Teorema Seja \(X\) uma variável aleatória com função de distribuição \(F\) e cujo valor esperado existe. Então, \[ \small E(X) = \int\limits_{-\infty}^{\infty}xf_X(x)dx = \int\limits_{0}^{\infty}[1-F_X(x)]dx - \int\limits_{-\infty}^{0}F_X(x)dx. \] Demonstração: Magalhaes, p.214.

Teorema II Seja \(X\) uma variável aleatória cujo valor esperado existe. Considere \(Y = g(X)\), uma função de \(X\) que também é variável aleatória no mesmo espaço de probabilidade. Então: \[ \small E(g(X)) = \int\limits_{-\infty}^{\infty}g(x)f_X(x)dx. \] Demonstração: Magalhaes, p.220.

Exemplo 1: A variável aleatória \(X\) tem função densidade de probabilidade dada pela expressão abaixo. Determine a esperança de \(g(X) = X^2\). \[ \small \begin{array}{llll} f_X(x) = \left\{ \begin{array}{ll} \frac{1}{4}(x+2),& -2\leq x < 0;\\ \frac{1}{2}, & 0 \leq x < 1;\\ 0, & \mbox{caso contrário.} \end{array} \right. \end{array} \begin{array}{llll} &\mbox{Solução: } E(g(X)) = E(X^2) \\ &= \int\limits_{-2}^{0}x^2\frac{1}{4}(x+2)dx + \int\limits_{0}^{1}x^2\frac{1}{2}dx \\ &= \frac{1}{4}\left.\left(\frac{x^4}{4}+\frac{2x^3}{3}\right)\right|_{-2}^0 + \left.\frac{x^3}{6}\right|_{0}^{1} = \frac{1}{2}. \end{array} \] Por integração numérica:

E_X2=function(x){
  f=ifelse(x< -2,0,
         ifelse(x<0,1/4*(x+2),
             ifelse(x<1,1/2,0)))
  f*x^2}

integrate(E_X2,-2,1)
## 0.5 with absolute error < 3.7e-05

Gráficos:

f=function(x){
  f=ifelse(x< -2,0,
         ifelse(x<0,1/4*(x+2),
             ifelse(x<1,1/2,0)))
}

x = seq(-3,2,0.01)
fx=f(x)

Fx=c()
i=1
while(i<=length(x)){
a=integrate(f,-2,x[i])
Fx[i]=a$value
i=i+1
}

data=data.frame(x=x[-length(x)],fx=fx[-length(x)], xend=x[-1], fxend=fx[-length(x)])
a=ggplot(data, aes( x=x, y=fx,xend=xend,yend=fxend)) +
geom_segment(size=1.2,color="orange")+
geom_point( aes( x=1, y=1/2), shape=1,size=3,color="orange")+
labs(x="x",y="f(x)",title="densidade de X")

b=ggplot(data.frame(x,Fx), aes( x=x, y=Fx)) +
geom_line(size=1.2,color="orange")+
  labs(x="x",y="F(x)",title="Densidade acumulada de X")
grid.arrange(a, b, ncol = 2, nrow = 1)
Figura  1: Função de densidade e Função de densidade acumulada

Figura 1: Função de densidade e Função de densidade acumulada

Definição: Sejam \((X_1,\ldots,X_n)\) um vetor \(n\)-dimensional de variáveis aleatórias com funções de probabilidades (caso discreto) ou densidade (caso contínuo) \(f_{X_1,\ldots,X_n}(x_1,\ldots,x_n)\). O valor esperado de uma função \(g(x_1,\ldots,x_n)\) de \(n\) variáveis aleatórias, denotado por \(E\left[g(x_1,\ldots,x_n)\right]\), é definido por

\[ \small E\left[g(x_1,\ldots,x_n)\right] = \sum\limits_{x_1} \ldots \sum\limits_{x_n} g(x_1,\ldots,x_n)f_{X_1,\ldots,X_n}(x_1,\ldots,x_n), \] quando \(X_1,\ldots,X_n\) são variáveis aleatórias discretas. %somando em todos os possíveis valores assumidos pelos \(X_i's, i = 1,\ldots,n\). Se \(X_1,\ldots,X_n\) são variáveis aleatórias contínuas temos: \[ \small E\left[g(x_1,\ldots,x_n)\right] = \int\limits_{-\infty}^{\infty}\ldots\int\limits_{-\infty}^{\infty} g(x_1,\ldots,x_n)f_{X_1,\ldots,X_n}(x_1,\ldots,x_n)dx_1\ldots dx_n, \]

Para uma importante aplicação da Definição , suponha que \(E(X_1)\) e \(E(X_2)\) sejam ambos finitos e faça \(g(X_1,X_2) = X_1+X_2.\) Então, no caso contínuo: \[ \small \begin{array}{llll} E(X_1+X_2) &= \int\limits_{-\infty}^{\infty}\int\limits_{-\infty}^{\infty} (x_1+x_2)f_{X_1,X_2}(x_1,x_2)dx_1dx_2,\\ &= \int\limits_{-\infty}^{\infty}\int\limits_{-\infty}^{\infty}x_1f_{X_1,X_2}(x_1,x_2)dx_1dx_2 + \int\limits_{-\infty}^{\infty}\int\limits_{-\infty}^{\infty}x_2f_{X_1,X_2}(x_1,x_2)dx_1dx_2,\\ &= \int\limits_{-\infty}^{\infty}x_1f_{X_1}(x_1)dx_1 + \int\limits_{-\infty}^{\infty}x_2f_{X_2}(x_2)dx_2,\\ &= E(X_1) + E(X_2). \end{array} \] No caso discreto: \[ \small \begin{array}{lll} E(X_1+X_2) &= \sum\limits_{x_1}\sum\limits_{x_2} (x_1+x_2)P(x_1,x_2),\\ &= \sum\limits_{x_1}\sum\limits_{x_2} x_1P(x_1,x_2) + \sum\limits_{x_1}\sum\limits_{x_2} x_2P(x_1,x_2),\\ &= \sum\limits_{x_1}x_1P(x_1) + \sum\limits_{x_2} x_2P_{X_2}(x_2),\\ &= E(X_1) + E(X_2). \end{array} \]

Propriedade: Esperança da Soma de Variáveis Aleatórias

Sejam \(X_1,\ldots,X_n\) variáveis aleatórias cujo valor esperado existe. Então, se a esperança da soma dessas variáveis existir, temos: \[ \small \begin{array}{lll} E(X_1 + \ldots + X_n) = E(X_1) + \ldots + E(X_n). \end{array} \]

Exemplo 2: Sejam \(X_1,\ldots,X_n,\) variáveis aleatórias independentes com distribuição Bernoulli de parâmetro \(p\). O valor esperado de \(Y = X_1 + \ldots + X_n\) é: \[ \small \begin{array} &\mbox{Pelo Apêndice Mood,}\\ \mbox{o valor esperado da Bernoulli é p}\\ \end{array} \Rightarrow \begin{array}{lll} E(Y)&=E(X_1+X_2+\ldots X_n)\\ &=E(X_1)+E(X_2)+\ldots E(X_n) \\ &=\underbrace{p+p+\ldots+p}_{\mbox{n vezes}}\\ &=n.p \end{array} \] que é igual à esperança da v.a. Binomial(n,p) - lembre-se que a soma de v.a. Bernoulli resulta em v.a. Binomial!

Esperança do Produto de Variáveis Aleatórias Independentes

Sejam \(X_1,\ldots,X_n\) variáveis aleatórias independentes cujo valor esperado é finito. Então, a esperança do produto dessas variáveis é finita e é igual ao produto dessas esperanças, isto é, \[ \small \begin{array}{lll} E\left(\prod \limits_{i=1}^{n}X_i\right) = E(X_1).E(X_2)\ldots E(X_n). \end{array} \]

Momentos e Esperança Condicional

  • Para \(k = 1,2,\ldots,\) o \(k\) da variável aleatória \(X\) é definido por \(E(X^k),\) desde que essa quantidade exista.
  • Se \(E(X) = \mu <\infty\), definimos o \(k\) por \(E\left[(X-\mu)^k\right]\), sempre que essa quantidade existir.
  • De modo similar, o da variável aleatória \(X\) é definido por \(E(|X|^k)\).

Definição: Variância e Desvio Padrão

Sendo \(\mu<\infty\), definimos a variância de \(X\) como o momento central de ordem 2, isto é, \[ \small Var(X) = \sigma^2 = E\left[(X-\mu)^2\right]; \] O desvio padrão é a raíz quadrada da variância.

Definição: Coeficiente de Assimetria

Seja \(X\) uma variável aleatória qualquer com valor esperado \(\mu\) e desvio padrão \(\sigma\). O coeficiente de assimetria de \(X\), denotado por \(\alpha_3\), indica o grau de assimetria da sua distribuição de probabilidade e é definido por: \[\small \alpha_3 = \frac{E\left[(X-\mu)^3\right]}{\sigma^3};\] em que supomos a existência do 3º momento de \(X\).

Definição: Coeficiente de Curtose

Seja \(X\) uma variável aleatória qualquer com valor esperado \(\mu\) e desvio padrão \(\sigma\). O coeficiente de curtose da variável \(X\), denotado por \(\alpha_4\), indica o grau de achatamento da sua distribuição de probabilidade e é definido por: \[\alpha_4 = \frac{E\left[(X-\mu)^4\right]}{\sigma^4};\] em que supomos a existência do 4º momento de \(X\).

Definição: Covariância

Sejam \(X\) e \(Y\) variáveis aleatórias no mesmo espaço de probabilidade. A covariância entre entre \(X\) e \(Y\) é definida por \[Cov(X,Y) = \sigma_{X,Y} = E\left[(X-\mu_X)(Y-\mu_Y)\right];\] desde que as esperanças presentes na expressão existam.

Propriedade: A covariância entre entre \(X\) e \(Y\) é igual a esperança do produto menos o produto das esperanças, isto é, \[ \small Cov(X,Y) = E(XY) - E(X).E(Y); \] sempre que as esperanças envolvidas estejam bem definidas.

Propriedade: Sejam \(X_1,\ldots,X_n\) variáveis aleatórias num mesmo espaço de probabilidade. Então, sempre que as esperanças envolvidas estejam bem definidas, temos: \[ \small \mbox{Var}\left(\sum\limits_{i=1}^{n}X_i\right) = \sum\limits_{i=1}^{n}\mbox{Var}(X_i) + 2\sum\limits_{i<j}\sum\limits \mbox{Cov}(X_i,X_j);\] em que \(1\leq i<j\leq n.\) Se, além dessas condições mencionadas, as variáveis forem independentes, então \[ \small \mbox{Var}\left(\sum\limits_{i=1}^{n}X_i\right) = \sum\limits_{i=1}^{n}\mbox{Var}(X_i); \]

Exemplo 3: Sejam \(X_1,\ldots,X_n,\) variáveis aleatórias independentes com distribuição Bernoulli de parâmetro \(p\). A variância de \(Y = X_1 + \ldots + X_n\) é: \[ \small \begin{array} &\mbox{Pelo Apêndice Mood,}\\ \mbox{a variância da Bernoulli é p.(1-p)}\\ \end{array} \Rightarrow \begin{array}{lll} Var(Y)&=Var(X_1+X_2+\ldots X_n)\\ &=Var(X_1)+Var(X_2)+\ldots Var(X_n) \\ &=\underbrace{p.(1-p)+p.(1-p)+\ldots+p.(1-p)}_{\mbox{n vezes}}\\ &=n.p.(1-p) \end{array} \] que corresponde à variância da v.a. Binomial(n,p) - pois Binomial é soma de Bernoullis!

Definição: Coeficiente de Correlação Sejam \(X\) e \(Y\) variáveis aleatórias no mesmo espaço de probabilidade. Supondo que as esperanças de \(X\) e \(Y\) existam, o coeficiente de correlação entre \(X\) e \(Y\) é definido por \[\mbox{Corr}(X,Y) = \rho_{X,Y} = \frac{\mbox{Cov}(X,Y)}{\sigma_X\sigma_Y},\]

em que \(\sigma_X\) é o desvio padrão da variável aleatória \(X\) e \(\sigma_Y\) é o desvio padrão da variável aleatória \(Y\).

Esperança Condicional

Definição: Esperança Condicional

Sejam \((X,Y)\) duas variáveis aleatórias e \(g(X,Y)\) uma função de \(X\) e \(Y\). A esperança condicional de \(g(X,Y)\) dado \(Y=y\) é definida por \[ \small \begin{array}{|ll|} \hline &\mbox{no caso contínuo}:\\ &E\left[g(X,Y)|Y=y\right] \\ &=\int\limits_{-\infty}^{\infty} g(x,y)f_{X|Y}(x|y)dx,\\ \hline \end{array} \begin{array}{|ll|} \hline &\mbox{no caso discreto}:\\ &E\left[g(X,Y)|Y=y\right] \\ &= \sum\limits_{\mbox{nos valores de x}} g(x,y)P(X=x|Y=y)\\ \hline \end{array} \]

  • Quando \(g(x,y) = x,\) temos \(E(X|Y)\).
  • Essa definição pode ser generalizada para mais de duas dimensões.

Exemplo 4: Sejam \(X\) e \(Y\) duas variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},P\)) conjuntamente distribuídas segundo a densidade \(f_{X,Y}(x,y) = (x+y)I_{(0,1)}(x)I_{(0,1)}(y)\). Calcule \(E(X|Y)\).

Solução: \[ \small \begin{array}{ll} \mbox{1º passo: Marginal de Y:}\\ f_Y(y)=\int\limits_{0}^1(x+y)dx\\ =\left.\frac{x^2}{2}\right|_0^1+y\left.x\right|_0^1 =\frac{1}{2}+y\\ \mbox{2º passo: condicional:}\\ f_{X|Y}(x|y)=\frac{f_{X,Y}(x,y)}{f_Y(y)} =\frac{x+y}{\frac{1}{2}+y}\\ =\frac{x+y}{\frac{1+2y}{2}} =\frac{2(x+y)}{1+2y} \end{array} \Rightarrow \begin{array}{ll} E(X|Y)=\int\limits_{0}^{1} \frac{2x(x+y)}{1+2y} dx\\ =\frac{2}{1+2y} \int\limits_{0}^{1} (x^2+xy) dx \\ =\frac{2}{1+2y} \left(\left.\frac{x^3}{3}\right|_0^1+y\left.\frac{x^2}{2}\right|_0^1 \right) \\ =\frac{2}{1+2y} \left(\frac{1}{3}+\frac{y}{2}\right)\\ =\frac{2}{1+2y}.\frac{2+3y}{6}=\frac{2+3y}{3+6y} \end{array} \]

Teorema: Sejam \(X\) e \(Y\) variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},P\)). A esperança de \(g(X)\) pode ser obtida por

\[ \small E\left[g(X)\right] = E\left[E\left[g(X)|Y\right]\right], \] em particular, quando \(g(X) = X\) temos: \[ \small E\left[X\right] = E\left[E\left[X|Y\right]\right], \] desde que as esperanças existam.

Uma aplicação útil do Teorema é obter a esperança do produto \(XY\) em função da esperança condicional de \(X\) dado \(Y\): \[ \small E(XY) = E\left[E(XY|Y)\right].\]

Exemplo 5: (Magalhães, p.263) Um ponto \(Y\) é escolhido de acordo com o modelo Uniforme\(\left[0,1\right]\). A seguir um outro ponto \(X\) é escolhido, também segundo o modelo Uniforme contínuo, mas, agora no intervalo \(\left[0,Y\right]\). Qual o valor esperado de \(X\)? \[ \small \mbox{Note que } Y \sim U(0,1) \mbox{ e } X|Y \sim U(0,y) \Rightarrow \left\{ \begin{array}{lll} f_Y(y)=1 \mbox{ e } E(Y)=\frac{1}{2}\\ f_{X|Y}(x|y)=\frac{1}{y} \end{array} \right.\\ \begin{array}{lll} \mbox{Primeiro passo:}\\ E(X)=\int\limits_0^y x.\frac{1}{y}dx\\ =\frac{1}{y}\left.\frac{x^2}{2}\right|_0^y\\ =\frac{y}{2} \end{array} \Rightarrow \begin{array}{lll} E(X|Y)\\ =E[E(X|Y)]\\ =E\left(\frac{Y}{2}\right)=\frac{1}{2}E(Y)\\ =\frac{1}{4} \end{array} \]

Gráficos:

y=c(0,1,0.01)
x=seq(0,1,0.01)
fy=dunif(y)
fxdy=function(y){
  a=ifelse(x<=y,dunif(x,0,y),NA)
  a
}

data=data.frame(x,fx1=fxdy(1/3),fx2=fxdy(1/2),fx3=fxdy(1))

a=ggplot(data.frame(y,fy), aes( x=y, y=fy)) +
  ylim(0,1)+
geom_line( size=1.2,color="orange")+
  labs(x="y",y="f(y)",title="densidade de Y ~ U(0,1)")

colors <- c("fx1"="blue", "fx2"="red", "fx3"="green")
b=ggplot(data, aes( x=x, y=fx1,color = "fx1")) +
  ylim(0,3)+
geom_line( size=1.2)+
geom_line(size=1.2,aes(x = x,y = fx2, color = "fx2")) +
geom_line(size=1.2,aes(x = x,y = fx3, color = "fx3")) +  
  labs(x="y",
         y=expression(f(x*"|"*y)),
         title="Densidade condicional em três cenários",
         color = "Valores de y") +
  geom_segment(aes(x = 1/3, y = 0, xend = 1/3, yend = 3),linetype="dashed",color = "gray")+
   geom_segment(aes(x = 1/2, y = 0, xend = 1/2, yend = 2),linetype="dashed",color = "gray")+
  geom_segment(aes(x = 1, y = 0, xend = 1, yend = 1),linetype="dashed",color = "gray")+
  geom_segment(aes(x = 0, y = 0, xend = 0, yend =3),linetype="dashed",color = "gray")+
    scale_color_manual(labels=c(expression(y==1/3),expression(y==1/2),expression(y==1)),values = colors)

grid.arrange(a, b, ncol = 2, nrow = 1)
Figura  2: Gráficos do exemplo 5

Figura 2: Gráficos do exemplo 5

Exemplo 6: A função densidade conjunta de \(X\) e \(Y\) é dada pela expressão abaixo. Determine \(E(X)\), \(E(Y)\) e mostre que \(\mbox{Cov}(X,Y)=1\) \[f_{X,Y}(x,y) = \frac{1}{y}\mbox{e}^{-(y+x/y)}, \quad x>0, \quad y>0.\] Solução: \[ \begin{array}{lll} \mbox{1º passo: marginal de X:}\\ f_X(x)=\int\limits_0^\infty \frac{1}{y}\mbox{e}^{-(y+x/y)}dy \\ = \end{array} \]

Definição Variância Condicional

Sejam \((X,Y)\) duas variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},P\)). A variância condicional de \(X\), dado \(Y=y\) é definida por \[ \small \mbox{Var}\left(X|Y=y\right) = E\left(X^2|Y=y\right) - E^2\left(X|Y=y\right). \] Supondo a existência das esperanças envolvidas.

Teorema: \[ \small \mbox{Var}\left(X\right) = E\left[\mbox{Var}\left(X|Y\right)\right] - \mbox{Var}\left[E\left(X|Y\right)\right]. \]

Definição: Covariância Condicional

Sejam \(X\), \(Y\) e \(Z\) variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},P\)). A covariância condicional entre \(X\) e \(Y\) dado \(Z=z\) é definida por \[ \small \mbox{Cov}\left(XY|Z=z\right) = E\left(XY|Z=z\right) - E\left(X|Z=z\right)E\left(Y|Z=z\right). \] Supondo a existência das esperanças envolvidas.