require(gtools)
require(tidyverse)
require(ggforce)
options(kableExtra.latex.load_packages = TRUE)
require(kableExtra)
require(mosaicCalc)
require(gridExtra)
require(numDeriv)
require(pracma)
#Para numerar tabelas e figuras:
require(captioner)
fig_nums <- captioner(prefix = "Figura")
table_nums <- captioner(prefix = "Tabela")
quadro_nums<- captioner(prefix="Quadro")
O conceito de valor esperado ou média parece ter sido historicamente desenvolvido para avaliar ganhos em jogos de azar. O retorno financeiro, obtido em uma jogada de dados ou rodada de um certo jogo de cartas, seria imprevisível. A questão de interesse era avaliar esse retorno após várias jogadas. Desta forma ficaria mais fácil contabilizar perdas e ganhos. Com o auxílio do formalismo matemático, essas ideias foram estabelecidas em definições rigorosas, incluindo os casos discreto e contínuo.
-Magalhães, M.N; Probabilidade e Variáveis Aleatórias. 3ª Edição. Edusp.
Seja \(X\) uma variável aleatória discreta com função de probabilidade \(P\) e valor observado \(x_i, i = 1,2,\ldots,n.\) O valor esperado, ou esperança matemática ou média de \(X\) é definido por
\[ \small E(X) = \mu_X = \sum\limits_{i=1}^{n}x_iP(X=x_i), \quad i = 1, 2, \ldots, n. \]
Seja \(X\) uma variável aleatória contínua com função densidade \(f_X\). O valor esperado, ou esperança matemática ou média de \(X\) é definido por
\[ \small E(X) = \int\limits_{-\infty}^{\infty}xf_X(x)dx, \] desde que a integral esteja bem definida. \(E(X)\) vai estar bem definida se a integral em pelo menos um desses intervalos, for finita; isto é, \[ \small E(X) = \int\limits_{-\infty}^{0}xf_X(x)dx < \infty \quad \mbox{ou} \quad \int\limits_{0}^{\infty}xf_X(x)dx < \infty. \]
Teorema Seja \(X\) uma variável aleatória com função de distribuição \(F\) e cujo valor esperado existe. Então, \[ \small E(X) = \int\limits_{-\infty}^{\infty}xf_X(x)dx = \int\limits_{0}^{\infty}[1-F_X(x)]dx - \int\limits_{-\infty}^{0}F_X(x)dx. \] Demonstração: Magalhaes, p.214.
Teorema II Seja \(X\) uma variável aleatória cujo valor esperado existe. Considere \(Y = g(X)\), uma função de \(X\) que também é variável aleatória no mesmo espaço de probabilidade. Então: \[ \small E(g(X)) = \int\limits_{-\infty}^{\infty}g(x)f_X(x)dx. \] Demonstração: Magalhaes, p.220.
Exemplo 1: A variável aleatória \(X\) tem função densidade de probabilidade dada pela expressão abaixo. Determine a esperança de \(g(X) = X^2\). \[ \small \begin{array}{llll} f_X(x) = \left\{ \begin{array}{ll} \frac{1}{4}(x+2),& -2\leq x < 0;\\ \frac{1}{2}, & 0 \leq x < 1;\\ 0, & \mbox{caso contrário.} \end{array} \right. \end{array} \begin{array}{llll} &\mbox{Solução: } E(g(X)) = E(X^2) \\ &= \int\limits_{-2}^{0}x^2\frac{1}{4}(x+2)dx + \int\limits_{0}^{1}x^2\frac{1}{2}dx \\ &= \frac{1}{4}\left.\left(\frac{x^4}{4}+\frac{2x^3}{3}\right)\right|_{-2}^0 + \left.\frac{x^3}{6}\right|_{0}^{1} = \frac{1}{2}. \end{array} \] Por integração numérica:
E_X2=function(x){
f=ifelse(x< -2,0,
ifelse(x<0,1/4*(x+2),
ifelse(x<1,1/2,0)))
f*x^2}
integrate(E_X2,-2,1)
## 0.5 with absolute error < 3.7e-05
Gráficos:
f=function(x){
f=ifelse(x< -2,0,
ifelse(x<0,1/4*(x+2),
ifelse(x<1,1/2,0)))
}
x = seq(-3,2,0.01)
fx=f(x)
Fx=c()
i=1
while(i<=length(x)){
a=integrate(f,-2,x[i])
Fx[i]=a$value
i=i+1
}
data=data.frame(x=x[-length(x)],fx=fx[-length(x)], xend=x[-1], fxend=fx[-length(x)])
a=ggplot(data, aes( x=x, y=fx,xend=xend,yend=fxend)) +
geom_segment(size=1.2,color="orange")+
geom_point( aes( x=1, y=1/2), shape=1,size=3,color="orange")+
labs(x="x",y="f(x)",title="densidade de X")
b=ggplot(data.frame(x,Fx), aes( x=x, y=Fx)) +
geom_line(size=1.2,color="orange")+
labs(x="x",y="F(x)",title="Densidade acumulada de X")
grid.arrange(a, b, ncol = 2, nrow = 1)
Figura 1: Função de densidade e Função de densidade acumulada
Definição: Sejam \((X_1,\ldots,X_n)\) um vetor \(n\)-dimensional de variáveis aleatórias com funções de probabilidades (caso discreto) ou densidade (caso contínuo) \(f_{X_1,\ldots,X_n}(x_1,\ldots,x_n)\). O valor esperado de uma função \(g(x_1,\ldots,x_n)\) de \(n\) variáveis aleatórias, denotado por \(E\left[g(x_1,\ldots,x_n)\right]\), é definido por
\[ \small E\left[g(x_1,\ldots,x_n)\right] = \sum\limits_{x_1} \ldots \sum\limits_{x_n} g(x_1,\ldots,x_n)f_{X_1,\ldots,X_n}(x_1,\ldots,x_n), \] quando \(X_1,\ldots,X_n\) são variáveis aleatórias discretas. %somando em todos os possíveis valores assumidos pelos \(X_i's, i = 1,\ldots,n\). Se \(X_1,\ldots,X_n\) são variáveis aleatórias contínuas temos: \[ \small E\left[g(x_1,\ldots,x_n)\right] = \int\limits_{-\infty}^{\infty}\ldots\int\limits_{-\infty}^{\infty} g(x_1,\ldots,x_n)f_{X_1,\ldots,X_n}(x_1,\ldots,x_n)dx_1\ldots dx_n, \]
Para uma importante aplicação da Definição , suponha que \(E(X_1)\) e \(E(X_2)\) sejam ambos finitos e faça \(g(X_1,X_2) = X_1+X_2.\) Então, no caso contínuo: \[ \small \begin{array}{llll} E(X_1+X_2) &= \int\limits_{-\infty}^{\infty}\int\limits_{-\infty}^{\infty} (x_1+x_2)f_{X_1,X_2}(x_1,x_2)dx_1dx_2,\\ &= \int\limits_{-\infty}^{\infty}\int\limits_{-\infty}^{\infty}x_1f_{X_1,X_2}(x_1,x_2)dx_1dx_2 + \int\limits_{-\infty}^{\infty}\int\limits_{-\infty}^{\infty}x_2f_{X_1,X_2}(x_1,x_2)dx_1dx_2,\\ &= \int\limits_{-\infty}^{\infty}x_1f_{X_1}(x_1)dx_1 + \int\limits_{-\infty}^{\infty}x_2f_{X_2}(x_2)dx_2,\\ &= E(X_1) + E(X_2). \end{array} \] No caso discreto: \[ \small \begin{array}{lll} E(X_1+X_2) &= \sum\limits_{x_1}\sum\limits_{x_2} (x_1+x_2)P(x_1,x_2),\\ &= \sum\limits_{x_1}\sum\limits_{x_2} x_1P(x_1,x_2) + \sum\limits_{x_1}\sum\limits_{x_2} x_2P(x_1,x_2),\\ &= \sum\limits_{x_1}x_1P(x_1) + \sum\limits_{x_2} x_2P_{X_2}(x_2),\\ &= E(X_1) + E(X_2). \end{array} \]
Propriedade: Esperança da Soma de Variáveis Aleatórias
Sejam \(X_1,\ldots,X_n\) variáveis aleatórias cujo valor esperado existe. Então, se a esperança da soma dessas variáveis existir, temos: \[ \small \begin{array}{lll} E(X_1 + \ldots + X_n) = E(X_1) + \ldots + E(X_n). \end{array} \]
Exemplo 2: Sejam \(X_1,\ldots,X_n,\) variáveis aleatórias independentes com distribuição Bernoulli de parâmetro \(p\). O valor esperado de \(Y = X_1 + \ldots + X_n\) é: \[ \small \begin{array} &\mbox{Pelo Apêndice Mood,}\\ \mbox{o valor esperado da Bernoulli é p}\\ \end{array} \Rightarrow \begin{array}{lll} E(Y)&=E(X_1+X_2+\ldots X_n)\\ &=E(X_1)+E(X_2)+\ldots E(X_n) \\ &=\underbrace{p+p+\ldots+p}_{\mbox{n vezes}}\\ &=n.p \end{array} \] que é igual à esperança da v.a. Binomial(n,p) - lembre-se que a soma de v.a. Bernoulli resulta em v.a. Binomial!
Sejam \(X_1,\ldots,X_n\) variáveis aleatórias independentes cujo valor esperado é finito. Então, a esperança do produto dessas variáveis é finita e é igual ao produto dessas esperanças, isto é, \[ \small \begin{array}{lll} E\left(\prod \limits_{i=1}^{n}X_i\right) = E(X_1).E(X_2)\ldots E(X_n). \end{array} \]
Definição: Variância e Desvio Padrão
Sendo \(\mu<\infty\), definimos a variância de \(X\) como o momento central de ordem 2, isto é, \[ \small Var(X) = \sigma^2 = E\left[(X-\mu)^2\right]; \] O desvio padrão é a raíz quadrada da variância.
Definição: Coeficiente de Assimetria
Seja \(X\) uma variável aleatória qualquer com valor esperado \(\mu\) e desvio padrão \(\sigma\). O coeficiente de assimetria de \(X\), denotado por \(\alpha_3\), indica o grau de assimetria da sua distribuição de probabilidade e é definido por: \[\small \alpha_3 = \frac{E\left[(X-\mu)^3\right]}{\sigma^3};\] em que supomos a existência do 3º momento de \(X\).
Definição: Coeficiente de Curtose
Seja \(X\) uma variável aleatória qualquer com valor esperado \(\mu\) e desvio padrão \(\sigma\). O coeficiente de curtose da variável \(X\), denotado por \(\alpha_4\), indica o grau de achatamento da sua distribuição de probabilidade e é definido por: \[\alpha_4 = \frac{E\left[(X-\mu)^4\right]}{\sigma^4};\] em que supomos a existência do 4º momento de \(X\).
Definição: Covariância
Sejam \(X\) e \(Y\) variáveis aleatórias no mesmo espaço de probabilidade. A covariância entre entre \(X\) e \(Y\) é definida por \[Cov(X,Y) = \sigma_{X,Y} = E\left[(X-\mu_X)(Y-\mu_Y)\right];\] desde que as esperanças presentes na expressão existam.
Propriedade: A covariância entre entre \(X\) e \(Y\) é igual a esperança do produto menos o produto das esperanças, isto é, \[ \small Cov(X,Y) = E(XY) - E(X).E(Y); \] sempre que as esperanças envolvidas estejam bem definidas.
Propriedade: Sejam \(X_1,\ldots,X_n\) variáveis aleatórias num mesmo espaço de probabilidade. Então, sempre que as esperanças envolvidas estejam bem definidas, temos: \[ \small \mbox{Var}\left(\sum\limits_{i=1}^{n}X_i\right) = \sum\limits_{i=1}^{n}\mbox{Var}(X_i) + 2\sum\limits_{i<j}\sum\limits \mbox{Cov}(X_i,X_j);\] em que \(1\leq i<j\leq n.\) Se, além dessas condições mencionadas, as variáveis forem independentes, então \[ \small \mbox{Var}\left(\sum\limits_{i=1}^{n}X_i\right) = \sum\limits_{i=1}^{n}\mbox{Var}(X_i); \]
Exemplo 3: Sejam \(X_1,\ldots,X_n,\) variáveis aleatórias independentes com distribuição Bernoulli de parâmetro \(p\). A variância de \(Y = X_1 + \ldots + X_n\) é: \[ \small \begin{array} &\mbox{Pelo Apêndice Mood,}\\ \mbox{a variância da Bernoulli é p.(1-p)}\\ \end{array} \Rightarrow \begin{array}{lll} Var(Y)&=Var(X_1+X_2+\ldots X_n)\\ &=Var(X_1)+Var(X_2)+\ldots Var(X_n) \\ &=\underbrace{p.(1-p)+p.(1-p)+\ldots+p.(1-p)}_{\mbox{n vezes}}\\ &=n.p.(1-p) \end{array} \] que corresponde à variância da v.a. Binomial(n,p) - pois Binomial é soma de Bernoullis!
Definição: Coeficiente de Correlação Sejam \(X\) e \(Y\) variáveis aleatórias no mesmo espaço de probabilidade. Supondo que as esperanças de \(X\) e \(Y\) existam, o coeficiente de correlação entre \(X\) e \(Y\) é definido por \[\mbox{Corr}(X,Y) = \rho_{X,Y} = \frac{\mbox{Cov}(X,Y)}{\sigma_X\sigma_Y},\]
em que \(\sigma_X\) é o desvio padrão da variável aleatória \(X\) e \(\sigma_Y\) é o desvio padrão da variável aleatória \(Y\).
Definição: Esperança Condicional
Sejam \((X,Y)\) duas variáveis aleatórias e \(g(X,Y)\) uma função de \(X\) e \(Y\). A esperança condicional de \(g(X,Y)\) dado \(Y=y\) é definida por \[ \small \begin{array}{|ll|} \hline &\mbox{no caso contínuo}:\\ &E\left[g(X,Y)|Y=y\right] \\ &=\int\limits_{-\infty}^{\infty} g(x,y)f_{X|Y}(x|y)dx,\\ \hline \end{array} \begin{array}{|ll|} \hline &\mbox{no caso discreto}:\\ &E\left[g(X,Y)|Y=y\right] \\ &= \sum\limits_{\mbox{nos valores de x}} g(x,y)P(X=x|Y=y)\\ \hline \end{array} \]
Exemplo 4: Sejam \(X\) e \(Y\) duas variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},P\)) conjuntamente distribuídas segundo a densidade \(f_{X,Y}(x,y) = (x+y)I_{(0,1)}(x)I_{(0,1)}(y)\). Calcule \(E(X|Y)\).
Solução: \[ \small \begin{array}{ll} \mbox{1º passo: Marginal de Y:}\\ f_Y(y)=\int\limits_{0}^1(x+y)dx\\ =\left.\frac{x^2}{2}\right|_0^1+y\left.x\right|_0^1 =\frac{1}{2}+y\\ \mbox{2º passo: condicional:}\\ f_{X|Y}(x|y)=\frac{f_{X,Y}(x,y)}{f_Y(y)} =\frac{x+y}{\frac{1}{2}+y}\\ =\frac{x+y}{\frac{1+2y}{2}} =\frac{2(x+y)}{1+2y} \end{array} \Rightarrow \begin{array}{ll} E(X|Y)=\int\limits_{0}^{1} \frac{2x(x+y)}{1+2y} dx\\ =\frac{2}{1+2y} \int\limits_{0}^{1} (x^2+xy) dx \\ =\frac{2}{1+2y} \left(\left.\frac{x^3}{3}\right|_0^1+y\left.\frac{x^2}{2}\right|_0^1 \right) \\ =\frac{2}{1+2y} \left(\frac{1}{3}+\frac{y}{2}\right)\\ =\frac{2}{1+2y}.\frac{2+3y}{6}=\frac{2+3y}{3+6y} \end{array} \]
Teorema: Sejam \(X\) e \(Y\) variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},P\)). A esperança de \(g(X)\) pode ser obtida por
\[ \small E\left[g(X)\right] = E\left[E\left[g(X)|Y\right]\right], \] em particular, quando \(g(X) = X\) temos: \[ \small E\left[X\right] = E\left[E\left[X|Y\right]\right], \] desde que as esperanças existam.
Uma aplicação útil do Teorema é obter a esperança do produto \(XY\) em função da esperança condicional de \(X\) dado \(Y\): \[ \small E(XY) = E\left[E(XY|Y)\right].\]
Exemplo 5: (Magalhães, p.263) Um ponto \(Y\) é escolhido de acordo com o modelo Uniforme\(\left[0,1\right]\). A seguir um outro ponto \(X\) é escolhido, também segundo o modelo Uniforme contínuo, mas, agora no intervalo \(\left[0,Y\right]\). Qual o valor esperado de \(X\)? \[ \small \mbox{Note que } Y \sim U(0,1) \mbox{ e } X|Y \sim U(0,y) \Rightarrow \left\{ \begin{array}{lll} f_Y(y)=1 \mbox{ e } E(Y)=\frac{1}{2}\\ f_{X|Y}(x|y)=\frac{1}{y} \end{array} \right.\\ \begin{array}{lll} \mbox{Primeiro passo:}\\ E(X)=\int\limits_0^y x.\frac{1}{y}dx\\ =\frac{1}{y}\left.\frac{x^2}{2}\right|_0^y\\ =\frac{y}{2} \end{array} \Rightarrow \begin{array}{lll} E(X|Y)\\ =E[E(X|Y)]\\ =E\left(\frac{Y}{2}\right)=\frac{1}{2}E(Y)\\ =\frac{1}{4} \end{array} \]
Gráficos:
y=c(0,1,0.01)
x=seq(0,1,0.01)
fy=dunif(y)
fxdy=function(y){
a=ifelse(x<=y,dunif(x,0,y),NA)
a
}
data=data.frame(x,fx1=fxdy(1/3),fx2=fxdy(1/2),fx3=fxdy(1))
a=ggplot(data.frame(y,fy), aes( x=y, y=fy)) +
ylim(0,1)+
geom_line( size=1.2,color="orange")+
labs(x="y",y="f(y)",title="densidade de Y ~ U(0,1)")
colors <- c("fx1"="blue", "fx2"="red", "fx3"="green")
b=ggplot(data, aes( x=x, y=fx1,color = "fx1")) +
ylim(0,3)+
geom_line( size=1.2)+
geom_line(size=1.2,aes(x = x,y = fx2, color = "fx2")) +
geom_line(size=1.2,aes(x = x,y = fx3, color = "fx3")) +
labs(x="y",
y=expression(f(x*"|"*y)),
title="Densidade condicional em três cenários",
color = "Valores de y") +
geom_segment(aes(x = 1/3, y = 0, xend = 1/3, yend = 3),linetype="dashed",color = "gray")+
geom_segment(aes(x = 1/2, y = 0, xend = 1/2, yend = 2),linetype="dashed",color = "gray")+
geom_segment(aes(x = 1, y = 0, xend = 1, yend = 1),linetype="dashed",color = "gray")+
geom_segment(aes(x = 0, y = 0, xend = 0, yend =3),linetype="dashed",color = "gray")+
scale_color_manual(labels=c(expression(y==1/3),expression(y==1/2),expression(y==1)),values = colors)
grid.arrange(a, b, ncol = 2, nrow = 1)
Figura 2: Gráficos do exemplo 5
Exemplo 6: A função densidade conjunta de \(X\) e \(Y\) é dada pela expressão abaixo. Determine \(E(X)\), \(E(Y)\) e mostre que \(\mbox{Cov}(X,Y)=1\) \[f_{X,Y}(x,y) = \frac{1}{y}\mbox{e}^{-(y+x/y)}, \quad x>0, \quad y>0.\] Solução: \[ \begin{array}{lll} \mbox{1º passo: marginal de X:}\\ f_X(x)=\int\limits_0^\infty \frac{1}{y}\mbox{e}^{-(y+x/y)}dy \\ = \end{array} \]
Definição Variância Condicional
Sejam \((X,Y)\) duas variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},P\)). A variância condicional de \(X\), dado \(Y=y\) é definida por \[ \small \mbox{Var}\left(X|Y=y\right) = E\left(X^2|Y=y\right) - E^2\left(X|Y=y\right). \] Supondo a existência das esperanças envolvidas.
Teorema: \[ \small \mbox{Var}\left(X\right) = E\left[\mbox{Var}\left(X|Y\right)\right] - \mbox{Var}\left[E\left(X|Y\right)\right]. \]
Definição: Covariância Condicional
Sejam \(X\), \(Y\) e \(Z\) variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},P\)). A covariância condicional entre \(X\) e \(Y\) dado \(Z=z\) é definida por \[ \small \mbox{Cov}\left(XY|Z=z\right) = E\left(XY|Z=z\right) - E\left(X|Z=z\right)E\left(Y|Z=z\right). \] Supondo a existência das esperanças envolvidas.