#install.packages("gtools")
#install.packages("ggforce")  
#install.packages("mosaicCalc")
require(gtools)
require(tidyverse)
require(ggforce)  
options(kableExtra.latex.load_packages = TRUE)
require(kableExtra)
require(mosaicCalc)
require(gridExtra)
require(numDeriv)

Probabilidade

Encontramos na natureza dois tipos de fenômenos: determinísticos e aleatórios.

  • Os fenômenos determinísticos são aqueles em que os resultados são sempre os mesmos, qualquer que seja o número de ocorrências verificadas. Como exemplo,
    • os quadrados de inteiros ímpares são sempre ímpares;
    • a água ferve a 100°C;
  • Nos fenômenos aleatórios, os resultados não serão previsíveis, mesmo que haja um grande número de repetições do mesmo fenômeno.

Referências: - Milone, G., Estatística Geral e Aplicada. Ed. Cengage Learning.}

Fenômeno Aleatório

No nosso dia-a-dia, em maior ou menor grau, nos deparamos com o acaso. Por exemplo, da afirmação “é provável que meu time ganhe a partida hoje” pode resultar em:

  • que, apesar do favoritismo, ele perca;
  • que, como pensamos, ele ganhe;
  • que empate.

Como vimos, o resultado final depende do acaso. Fenômenos como esse são chamados fenômenos aleatórios ou experimentos aleatórios.

Definição: Experimentos ou fenômenos aleatórios são aqueles que, mesmo repetidos várias vezes sob condições semelhantes, apresentam resultados imprevisíveis.

Referências: - Morettin, L.G., Estatística Básica - Probabilidade e Inferência. Ed. Pearson.

Podemos considerar os experimentos aleatórios como fenômenos produzidos pelo homem.

  • Lançamento de uma moeda honesta
Lançamento de uma moeda

Lançamento de uma moeda

  • foi realizado um ensaio de Bernoulli no R e o resultado do experimento foi “cara”.
  • Foi utilizada a semente set.seed(01022021), significa que se alguém for replicar o experimento com essa semente, terá os mesmos resultados.
set.seed(01022021)
moeda=c("cara","coroa")
sample(moeda,size=1)
## [1] "cara"

$$

$$

  • Lançamento de um dado;
    • o dado foi lançado 2 vezes.
dado=c("$\\color{orange}{\\fbox{1}}$", "$\\color{orange}{\\fbox{2}}$","$\\color{orange}{\\fbox{3}}$","$\\color{orange}{\\fbox{4}}$","$\\color{orange}{\\fbox{5}}$","$\\color{orange}{\\fbox{6}}$") 
Omega=permutations(n=6,r=2,v=dado,repeats.allowed=TRUE)        
index=sample(1:nrow(Omega),size=nrow(Omega))

Omega=Omega[index,] %>%
   `colnames<-`(c("1º lançamento","2º lançamento"))  %>%
  t() 

Omega[,1:18]%>%
  data.frame() %>%
  kbl(caption="Descrição do espaço amostral com 36 elementos",escape = FALSE,col.names = NULL) %>%
  kable_classic(full_width = F,  html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"),
                full_width = F)
Descrição do espaço amostral com 36 elementos
1º lançamento \(\color{orange}{\fbox{4}}\) \(\color{orange}{\fbox{4}}\) \(\color{orange}{\fbox{6}}\) \(\color{orange}{\fbox{6}}\) \(\color{orange}{\fbox{2}}\) \(\color{orange}{\fbox{2}}\) \(\color{orange}{\fbox{2}}\) \(\color{orange}{\fbox{3}}\) \(\color{orange}{\fbox{3}}\) \(\color{orange}{\fbox{3}}\) \(\color{orange}{\fbox{1}}\) \(\color{orange}{\fbox{1}}\) \(\color{orange}{\fbox{3}}\) \(\color{orange}{\fbox{3}}\) \(\color{orange}{\fbox{5}}\) \(\color{orange}{\fbox{6}}\) \(\color{orange}{\fbox{6}}\) \(\color{orange}{\fbox{4}}\)
2º lançamento \(\color{orange}{\fbox{6}}\) \(\color{orange}{\fbox{4}}\) \(\color{orange}{\fbox{4}}\) \(\color{orange}{\fbox{6}}\) \(\color{orange}{\fbox{3}}\) \(\color{orange}{\fbox{6}}\) \(\color{orange}{\fbox{2}}\) \(\color{orange}{\fbox{6}}\) \(\color{orange}{\fbox{4}}\) \(\color{orange}{\fbox{3}}\) \(\color{orange}{\fbox{5}}\) \(\color{orange}{\fbox{2}}\) \(\color{orange}{\fbox{2}}\) \(\color{orange}{\fbox{5}}\) \(\color{orange}{\fbox{5}}\) \(\color{orange}{\fbox{1}}\) \(\color{orange}{\fbox{3}}\) \(\color{orange}{\fbox{2}}\)
1º lançamento \(\color{orange}{\fbox{1}}\) \(\color{orange}{\fbox{2}}\) \(\color{orange}{\fbox{4}}\) \(\color{orange}{\fbox{6}}\) \(\color{orange}{\fbox{2}}\) \(\color{orange}{\fbox{4}}\) \(\color{orange}{\fbox{4}}\) \(\color{orange}{\fbox{5}}\) \(\color{orange}{\fbox{5}}\) \(\color{orange}{\fbox{2}}\) \(\color{orange}{\fbox{5}}\) \(\color{orange}{\fbox{6}}\) \(\color{orange}{\fbox{5}}\) \(\color{orange}{\fbox{1}}\) \(\color{orange}{\fbox{3}}\) \(\color{orange}{\fbox{5}}\) \(\color{orange}{\fbox{1}}\) \(\color{orange}{\fbox{1}}\)
2º lançamento \(\color{orange}{\fbox{4}}\) \(\color{orange}{\fbox{4}}\) \(\color{orange}{\fbox{1}}\) \(\color{orange}{\fbox{5}}\) \(\color{orange}{\fbox{1}}\) \(\color{orange}{\fbox{3}}\) \(\color{orange}{\fbox{5}}\) \(\color{orange}{\fbox{6}}\) \(\color{orange}{\fbox{4}}\) \(\color{orange}{\fbox{5}}\) \(\color{orange}{\fbox{2}}\) \(\color{orange}{\fbox{2}}\) \(\color{orange}{\fbox{3}}\) \(\color{orange}{\fbox{1}}\) \(\color{orange}{\fbox{1}}\) \(\color{orange}{\fbox{1}}\) \(\color{orange}{\fbox{6}}\) \(\color{orange}{\fbox{3}}\)
  • Lançamento de duas moedas;
    • No experimento abaixo, a moeda foi lançada duas vezes, e contado o número de sucessos.
    • O resultado da contagem foi igual a 1: \(X=1\), com probabilidade:

\[ P(X=1)=\binom{2}{1} . \left(\frac{1}{2}\right)^1. \left(1-\frac{1}{2}\right)^{2-1}=0,5 \]

set.seed(02022021)
N=1
n=2
p=0.5
x=rbinom(N,size=n,p=p)
x
## [1] 1
dbinom(x,size=n,p=p)
## [1] 0.5
  • Retirada de duas cartas de um baralho completo, de 52 cartas (sem reposição)
cards = c(2:10, "J", "Q", "K", "A")
suits = c("$\\color{red}{\\heartsuit}$", "$\\spadesuit$", "$\\color{red}{\\diamondsuit}$", "$\\clubsuit$")
deck <- paste0(rep(cards, length(suits)),  #card values
               rep(suits, each = length(cards))) #suits
deck %>%
  matrix(nrow=4,byrow=T) %>%
  data.frame() %>%
  kbl(caption="Descrição das 52 cartas do baralho",col.names = NULL,escape = FALSE) %>%
  kable_classic(full_width = F, html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"),
                full_width = F)
Descrição das 52 cartas do baralho
2\(\color{red}{\heartsuit}\) 3\(\color{red}{\heartsuit}\) 4\(\color{red}{\heartsuit}\) 5\(\color{red}{\heartsuit}\) 6\(\color{red}{\heartsuit}\) 7\(\color{red}{\heartsuit}\) 8\(\color{red}{\heartsuit}\) 9\(\color{red}{\heartsuit}\) 10\(\color{red}{\heartsuit}\) J\(\color{red}{\heartsuit}\) Q\(\color{red}{\heartsuit}\) K\(\color{red}{\heartsuit}\) A\(\color{red}{\heartsuit}\)
2\(\spadesuit\) 3\(\spadesuit\) 4\(\spadesuit\) 5\(\spadesuit\) 6\(\spadesuit\) 7\(\spadesuit\) 8\(\spadesuit\) 9\(\spadesuit\) 10\(\spadesuit\) J\(\spadesuit\) Q\(\spadesuit\) K\(\spadesuit\) A\(\spadesuit\)
2\(\color{red}{\diamondsuit}\) 3\(\color{red}{\diamondsuit}\) 4\(\color{red}{\diamondsuit}\) 5\(\color{red}{\diamondsuit}\) 6\(\color{red}{\diamondsuit}\) 7\(\color{red}{\diamondsuit}\) 8\(\color{red}{\diamondsuit}\) 9\(\color{red}{\diamondsuit}\) 10\(\color{red}{\diamondsuit}\) J\(\color{red}{\diamondsuit}\) Q\(\color{red}{\diamondsuit}\) K\(\color{red}{\diamondsuit}\) A\(\color{red}{\diamondsuit}\)
2\(\clubsuit\) 3\(\clubsuit\) 4\(\clubsuit\) 5\(\clubsuit\) 6\(\clubsuit\) 7\(\clubsuit\) 8\(\clubsuit\) 9\(\clubsuit\) 10\(\clubsuit\) J\(\clubsuit\) Q\(\clubsuit\) K\(\clubsuit\) A\(\clubsuit\)
Omega=permutations(n=52,r=2,v=deck,repeats.allowed=FALSE)
paste0("número de elementos de Omega =", nrow(Omega))
## [1] "número de elementos de Omega =2652"
index = sample(1:nrow(Omega),5)

Omega[index,]  %>%
  data.frame() %>%
  `colnames<-`(c("1ª carta","2ª carta"))  %>%
  t() %>%
  kbl(caption="Descrição de apenas 5 possibilidades do total de 2652 possibilidades do espaço amostral",escape = FALSE) %>%
  kable_classic(full_width = F, html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"),
                full_width = F)
Descrição de apenas 5 possibilidades do total de 2652 possibilidades do espaço amostral
1ª carta Q\(\color{red}{\diamondsuit}\) 4\(\color{red}{\diamondsuit}\) A\(\color{red}{\diamondsuit}\) A\(\color{red}{\heartsuit}\) 7\(\spadesuit\)
2ª carta 5\(\color{red}{\heartsuit}\) A\(\color{red}{\diamondsuit}\) 4\(\color{red}{\heartsuit}\) A\(\clubsuit\) 4\(\clubsuit\)
  • Determinação da vida útil de um componente eletrônico.
    • abaixo temos uma amostra de 10 equipamentos, com vida útil média de 24 meses provenientes de uma distribuição exponencial. Os valores observados (em meses) foram:
n=10
media=24
t=rexp(n,1/media)
t
##  [1] 58.0517916 76.8045999 15.6228992 20.9483635 47.5138641  0.1130182
##  [7] 12.8369202 25.7037413 79.8827557 42.5714052
  • A análise desses experimentos revela que:
    • Cada experimento poderá ser repetido indefinidamente sob as mesmas condições;
    • De início não sabemos o valor do experimento mas podemos descrever todos os resultados possíveis;
    • Quando o experimento for repetido um grande número de vezes, surgirá uma regularidade.
  • Para a explicação desses fenômenos (fenômenos aleatórios), adota-se um modelo probabilístico.

Espaço Amostral

Um dos conceitos matemáticos fundamentais utilizados no estudo das probabilidades é o de conjunto. Um conjunto é uma coleção de objetos ou itens que possuem pelo menos uma característica em comum. É importante definir cuidadosamente o que constitui o conjunto em que estamos interessados, a fim de podermos decidir se determinado elemento é ou não membro do conjunto.

A probabilidade só tem sentido no contexto de espaço amostral, que é o conjunto de todos os resultados possíveis de um ``experimento’’. O termo “experimento” sugere a incerteza do resultado antes de fazermos as observações. Ao conjunto desses resultados possíveis damos o nome de espaço amostral ou conjunto universo, representado por \(\Omega\).

Exemplos

  • Lançamento de uma moeda; \[ \mbox{Resultados possíveis} \left\{ \begin{array}{cl} cara (c)\\ coroa (k) \end{array} \right. \Rightarrow \Omega = \left\{c, k\right\} \]

  • Lançamento de um dado \[ \mbox{Resultados possíveis: } 1, 2, 3, 4, 5, 6\Rightarrow \Omega = \left\{1, 2, 3, 4, 5, 6\right\} \]

1 Eventos

Chamamos de evento qualquer subconjunto do espaço amostral \(\Omega\) de um experimento aleatório.

  • Os eventos, sendo conjuntos, serão representados por letras maiúsculas do nosso alfabeto, enquanto os elementos de um evento serão representados por letras minúsculas.

Exemplo bolas de uma urna

Três bolas são retiradas, sem reposição, de um urna que tem três bolas de cada uma das cores azul, vermelha, preta e cinza. Dê um espaço amostral para esse experimento e liste os eventos:

  • A: todas as bolas selecionadas são vermelhas;
  • B: uma bola vermelha, uma bola azul e uma bola preta são selecionadas;
  • C: três diferentes cores ocorrem;
  • D : todas as quatro cores ocorrem.

Solução prática no R:

Omega=permutations(n=4,r=3,v=c("$\\color{blue}{\\bigotimes}$","$\\color{red}{\\bigotimes}$","$\\color{black}{\\bigotimes}$","$\\color{gray}{\\bigotimes}$"),repeats.allowed=TRUE) %>%
data.frame() %>%
  `colnames<-`(c("bola_I","bola_II","bola_III")) %>%
 mutate(
   total_A=ifelse(bola_I=="$\\color{blue}{\\bigotimes}$",1,0)+ifelse(bola_II=="$\\color{blue}{\\bigotimes}$",1,0)+ifelse(bola_III=="$\\color{blue}{\\bigotimes}$",1,0),
   total_V=ifelse(bola_I=="$\\color{red}{\\bigotimes}$",1,0)+ifelse(bola_II=="$\\color{red}{\\bigotimes}$",1,0)+ifelse(bola_III=="$\\color{red}{\\bigotimes}$",1,0), 
    total_P=ifelse(bola_I=="$\\color{black}{\\bigotimes}$",1,0)+ifelse(bola_II=="$\\color{black}{\\bigotimes}$",1,0)+ifelse(bola_III=="$\\color{black}{\\bigotimes}$",1,0), 
    total_C=ifelse(bola_I=="$\\color{gray}{\\bigotimes}$",1,0)+ifelse(bola_II=="$\\color{gray}{\\bigotimes}$",1,0)+ifelse(bola_III=="$\\color{gray}{\\bigotimes}$",1,0))

index = sample(1:nrow(Omega),12)
Omega[index,] %>%
  select(-c(total_A,total_V,total_P,total_C)) %>%
  t() %>%
  kbl(caption="Descrição de uma amostra de 12 arranjos do total de 64 arranjos distintos do espaço amostral",col.names = NULL,escape = FALSE) %>%
  kable_classic(full_width = F, html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"),
                full_width = F)
Descrição de uma amostra de 12 arranjos do total de 64 arranjos distintos do espaço amostral
bola_I \(\color{red}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{black}{\bigotimes}\)
bola_II \(\color{red}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{black}{\bigotimes}\)
bola_III \(\color{red}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{gray}{\bigotimes}\)
Omega %>%
  filter(total_V==3) %>%
  select(-c(total_A,total_V,total_P,total_C)) %>%
  t() %>%
  kbl(caption="Descrição do evento A com apenas 1 arranjo",col.names = NULL,escape = FALSE) %>%
  kable_classic(full_width = F, html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"),
                full_width = F)
Descrição do evento A com apenas 1 arranjo
bola_I \(\color{red}{\bigotimes}\)
bola_II \(\color{red}{\bigotimes}\)
bola_III \(\color{red}{\bigotimes}\)
Omega %>%
  filter(total_A==1 & total_V==1 & total_P==1) %>%
  select(-c(total_A,total_V,total_P,total_C)) %>%
  t() %>%
  kbl(caption="Descrição do evento B com 6 arranjos distintos",col.names = NULL,escape = FALSE) %>%
  kable_classic(full_width = F, html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"),
                full_width = F)
Descrição do evento B com 6 arranjos distintos
bola_I \(\color{black}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{red}{\bigotimes}\)
bola_II \(\color{blue}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{blue}{\bigotimes}\)
bola_III \(\color{red}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{black}{\bigotimes}\)
A = Omega %>%
filter(bola_I!=bola_II & bola_II!=bola_III & bola_I!=bola_III) %>%
  select(-c(total_A,total_V,total_P,total_C)) %>%
t() 

A[,1:12]%>%
  kbl(caption="Descrição do evento C com 24 arranjos distintos",col.names = NULL,escape = FALSE) %>%
  kable_classic(full_width = F, html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"),
               full_width = F)
Descrição do evento C com 24 arranjos distintos
bola_I \(\color{black}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{blue}{\bigotimes}\)
bola_II \(\color{blue}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{red}{\bigotimes}\)
bola_III \(\color{gray}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{gray}{\bigotimes}\)
bola_I \(\color{gray}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{red}{\bigotimes}\)
bola_II \(\color{black}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{gray}{\bigotimes}\)
bola_III \(\color{blue}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{red}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{blue}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{gray}{\bigotimes}\) \(\color{black}{\bigotimes}\) \(\color{blue}{\bigotimes}\)

Solução com notação de linguagem de conjuntos: Vamos denotar por A; V; P e C as cores azul, vermelha, preta e cinza, respectivamente.

\[ \Omega = \left\{(x_1; x_2; x_3): x_i = \mbox{A};\mbox{V};\mbox{P};\mbox{C}; i = 1;2;3 \right\}. \] Os eventos são:

\[ \begin{array}{llllll} \mbox{A} &=& \{(\mbox{V},\mbox{V},\mbox{V} )\};\\ \mbox{B} &=& \{(\mbox{P},\mbox{A},\mbox{V}); (\mbox{P},\mbox{V},\mbox{A}); (\mbox{A},\mbox{P},\mbox{V}); (\mbox{A},\mbox{V},\mbox{P}); (\mbox{V},\mbox{P},\mbox{A}); (\mbox{V},\mbox{A},\mbox{P})\};\\ \mbox{C} &=& \{(\mbox{P};\mbox{A};\mbox{C}); (\mbox{P},\mbox{A},\mbox{V}); (\mbox{P},\mbox{C},\mbox{A}); (\mbox{P},\mbox{C},\mbox{V}); (\mbox{P},\mbox{V},\mbox{A}); (\mbox{P},\mbox{V},\mbox{C});\\ &&(\mbox{A},\mbox{P},\mbox{C}); (\mbox{A},\mbox{P},\mbox{V}); (\mbox{A},\mbox{C},\mbox{P}); (\mbox{A},\mbox{C},\mbox{V}); (\mbox{A},\mbox{V},\mbox{P}); (\mbox{A},\mbox{V},\mbox{C});\\ &&(\mbox{C},\mbox{P},\mbox{A}); (\mbox{C},\mbox{P},\mbox{V}); (\mbox{C},\mbox{A},\mbox{P}); (\mbox{C},\mbox{A},\mbox{V}); (\mbox{C},\mbox{V},\mbox{P}); (\mbox{C},\mbox{V},\mbox{A});\\ &&(\mbox{V},\mbox{P},\mbox{A}); (\mbox{V},\mbox{P};\mbox{C}); (\mbox{V},\mbox{A},\mbox{P}); (\mbox{V},\mbox{A},\mbox{C}); (\mbox{V},\mbox{C},\mbox{P}); (\mbox{V},\mbox{C},\mbox{A})\}\\ \mbox{D}&=& \emptyset \mbox{ (impossível termos 4 cores em 3 extrações)}. \end{array} \]

1.1 Tipos de Eventos Aleatórios

  • equiprováveis: aqueles tomados como igualmente possíveis. Exemplo: bolas de uma urna são igualmente possíveis se do mesmo tamanho, formato e peso, se desenvolvidas e convenientemente agitadas antes de cada nova extração. Caso contrário, faz-se de conta que;
  • dependentes: quando a ocorrência de um condiciona, depende ou vincula o acontecimento de outro. As condições para tanto são: o espaço amostral modifica-se após cada experimento, ou a ocorrência do segundo evento depende do resultado do primeiro. Exemplos: retirar cartas de um baralho, sem reposição; lançados dois dados, sair o número um em um deles afeta as chances da soma deles ser ímpar;
  • independentes: aqueles em que a ocorrência de um não altera a chance de os outros ocorrerem;

1.2 Operações com Eventos Aleatórios

1.2.1 Intersecção

A intersecção de dois eventos \(A\) e \(B\) corresponde a ocorrência simultânea de \(A\) e \(B\) (ver Figura ). Seguindo a notação da teoria de conjuntos, a intersecção de dois eventos será representada por \(A\cap B\):

Note que: \(x \in A\cap B \Longleftrightarrow x\in A\) e \(x \in B\). Lê-se: “x pertence a A intersecção B se e somente se x pertence a A e x pertence a B.”

# DataFrame to specify circle and text positions
df.venn <- data.frame(x = c(0.866, -0.866),
                      y = c(-0.5, -0.5),
                      labels = c('B', 'C'))
ggplot(df.venn, aes(x0 = x, y0 = y, r = 1.5, fill = labels)) +
    geom_circle(alpha = .3, size = 1, colour = 'grey') +
      coord_fixed() +
        theme_void()

1.3 Exclusão

Dois eventos \(A\) e \(B\) são mutuamente exclusivos quando eles não podem ocorrer simultaneamente, isto é, quando a ocorrência de um impossibilita a ocorrência do outro. Isto significa dizer que os eventos \(A\) e \(B\) não têm elementos em comum. Então, dois eventos \(A\) e \(B\) são mutuamente exclusivos quando sua intersecção é o conjunto vazio, isto é, \(A\cap B = \emptyset.\)

# DataFrame to specify circle and text positions
df.venn <- data.frame(x = c(2.5, -0.866),
                      y = c(-0.5, -0.5),
                      labels = c('B', 'C'))
ggplot(df.venn, aes(x0 = x, y0 = y, r = 1.5, fill = labels)) +
    geom_circle(alpha = .3, size = 1, colour = 'grey') +
      coord_fixed() +
        theme_void()

Exemplo: Na extração de uma só carta, os eventos “a carta é de copas” e a “a carta é de ouros” são mutuamente exclusivos, porque uma carta não pode ser ao mesmo tempo de copas e de ouros. Já os eventos “a carta é de copas” e “a carta é uma figura” não são mutuamente exclusivos, porque algumas cartas de copas também são figuras.

1.4 Complementação de um Evento

O complementar de um evento \(A\), denotado por \(\bar{A}\) ou \(A^c\); é a negação de \(A\). Então, o complementar de \(A\) é formado pelos elementos que não pertencem a \(A\) (ver Figura ).

1.5 Diferença

A diferença entre dois eventos \(A\) e \(B\), representada por \(A\setminus B\) é o evento formado pelos elementos do espaço amostral que pertencem a \(A\) mas não pertencem a \(B\) (ver Figura ). Note que podemos pensar em \(A\setminus B\) como o complementar de \(B\) relativo ao evento \(A\).

Note que: \(x \in A\setminus B \Longleftrightarrow x \in A\) e \(x \notin B \Longleftrightarrow x \in A \cap \bar{B}.\) *Lê-se: “x pertence a A menos B se e somente se x pertence a A e x não pertence a B se e somente se x pertence a A intersecção B complementar.” Podemos escrever o evento \(A\) utilizando a notação de diferença: \(A = (A\setminus B) \cup (A\cap B)\).

Analogamente, o evento \(B\setminus A\) é o evento formado pelos elementos do espaço amostral que pertencem a \(B\) mas não pertencem a \(A\) (ver Figura.

1.6 Partição de um espaço amostral

Definição: Dizemos que os eventos \(A_1, A_2, \cdots, A_n\) formam uma partição do espaço amostral \(\Omega\) se:

    1. \(A_i \neq \phi\), \(i = 1, \cdots, n\);
    1. \(A_i \cap A_j = \phi\), para \(i \neq j\);
    1. \(\bigcup_{i=1}^{n} A_i = \Omega\)

No lançamento de um dado honesto, considere os eventos:

  • \(A_1\): Sair face par;

  • \(A_2\): Sair face ímpar; Note que:

    1. \(A_1 \neq \phi\) e \(A_2 \neq \phi\);
    1. \(A_1 \cap A_2 = \phi\);
    1. \(A_1 \cup A_2 = \Omega\).
Partição do Espaço amostral

Partição do Espaço amostral

2 Exercícios

  1. Lançam-se três moedas. Enumerar o espaço amostral e os eventos:
    1. faces iguais;
    1. cara na 1ª moeda;
    1. coroa na 2ª e 3ª moedas.

Resolução: Auxílio do R

require(DT)
## Loading required package: DT
moedas=permutations(n=2,r=3,v=c("CA","CO"),repeats.allowed=T) %>%
data.frame() %>%
  `colnames<-`(c("1ª moeda","2ª moeda","3ª moeda"))

datatable(moedas,cap="Descrição do espaço amostral com 8 possibilidades",options = list(pageLength = 5,columnDefs=list(list(targets=1:3, class="dt-center"))))
moedas[moedas[,1]==moedas[,2] & moedas[,2]==moedas[,3],] %>%
datatable(cap="Descrição do evento A: faces iguais, com 2 possibilidades",
          options = list(columnDefs=list(list(targets=1:3, class="dt-center"))))
moedas[moedas[,1]=="CA",] %>%
datatable(cap="Descrição do evento B: cara na 1ª moeda, com 4 possibilidades",
          options = list(columnDefs=list(list(targets=1:3, class="dt-center"))))
moedas[moedas[,2]=="CO" & moedas[,3]=="CO",] %>%
datatable(cap="Descrição do evento C: coroa na 2ª e 3ª moedas, com 2 possibilidades",
          options = list(columnDefs=list(list(targets=1:3, class="dt-center"))))

Resolução com notação de teoria dos conjuntos: Espaço Amostral: \[ \Omega = \left\{ \begin{array}{ll} \{\mbox{CA,CA,CA}\}; \{\mbox{CA,CA,CO}\}; \{\mbox{CA,CO,CA}\};\\ \{\mbox{CA,CO,CO}\}; \{\mbox{CO,CA,CA}\}; \{\mbox{CO,CA,CO}\};\\ \{\mbox{CO,CO,CA}\}; \{\mbox{CO,CO,CO}\} \end{array} \right\} \Rightarrow \mbox{ 8 resultados possíveis} \]

    1. \[A=\{\{\mbox{CA,CA,CA}\};\{\mbox{CO,CO,CO}\}\} \Rightarrow \mbox{ 2 resultados possíveis}\]
    1. \[B=\{ \{\mbox{CA,CA,CA}\}; \{\mbox{CA,CA,CO}\}; \{\mbox{CA,CO,CA}\}; \{\mbox{CA,CO,CO}\}; \} \Rightarrow \mbox{ 4 resultados possíveis} \]
    1. \[ C=\{ \{\mbox{CA,CO,CO}\}; \{\mbox{CO,CO,CO}\} \} \Rightarrow \mbox{ 2 resultados possíveis} \]
  1. Considere a experiência que consiste em pesquisar famílias com três crianças, em relação ao sexo delas, segundo a ordem do nascimento. Enumerar os eventos:
    1. ocorrência de exatamente dois filhos do sexo masculino;
    1. ocorrência de pelo menos um filho do sexo masculino;
    1. ocorrência de no máximo duas crianças do sexo feminino.

Resolução: Auxílio do R

require(tidyverse)
require(dplyr)
filhos=permutations(n=2,r=3,v=c("M","F"),repeats.allowed=T) %>%
data.frame() %>%
   mutate(total_M=ifelse(X1=="M",1,0)+ifelse(X2=="M",1,0)+ifelse(X3=="M",1,0)) %>%
  `colnames<-`(c("filho_I","filho_II","filho_III","Total_M"))  
    
datatable(filhos,cap="Descrição do espaço amostral com 8 possibilidades",
          options = list(pageLength = 5,columnDefs=list(list(targets=1:4, class="dt-center"))))
filhos %>%
  filter(Total_M==2)%>%
datatable(cap="Descrição do evento A: ocorrência de exatamente dois filhos do sexo masculino, com 3 possibilidades",
          options = list(columnDefs=list(list(targets=1:4, class="dt-center"))))
filhos %>%
  filter(Total_M>=1)%>%
 datatable(cap="Descrição do evento B: ocorrência de pelo menos um filho do sexo masculino, com 3 possibilidades",
          options = list(columnDefs=list(list(targets=1:4, class="dt-center"))))

Resolução em linguagem dos conjuntos:

    1. \[ A = \{\{\mbox{F,M,M}\};\{\mbox{M,M,F}\};\{\mbox{M,F,M}\}\} \]
    1. \[ B = \{ \{\mbox{F,F,M}\} \{\mbox{F,M,F}\} \{\mbox{F,M,M}\} \{\mbox{M,F,F}\} \{\mbox{M,F,M}\} \{\mbox{M,M,F}\} \{\mbox{M,M,M}\} \} \]
    1. Este evento é idêntico ao item anterior.
  1. Considere a Figura abaixo. Expresse, em notação de conjuntos, os eventos definidos por cada uma das áreas numeradas.
library(tidyverse)
library(ggforce)  
# DataFrame to specify circle and text positions
data = data.frame(x = c(0, 1, -1),
                   y = c(-0.5, 1, 1),
                   tx = c(0, 1.5, -1.5),
                   ty = c(-1, 1.3, 1.3),
                   cat = c('7', '2', 
                           '1'))
ggplot(data, aes(x0 = x , y0 = y, r = 1.5, fill = cat)) + 
  geom_rect(aes(xmin = -Inf, xmax = Inf, ymin = -Inf, ymax = 3), fill = "palegreen", alpha = 0.2) +
        geom_circle(alpha = 0.25, size = 1, color = "black",show.legend = FALSE) + 
        geom_text(aes(x = tx , y = ty, label = cat), size = 7) +
        annotate(geom="text", x=0, y=1.5, label="3",color="purple", size = 5) +
        annotate(geom="text", x=-0.9, y=0, label="5",color="darkorange", size = 5) +
        annotate(geom="text", x=0.9, y=0, label="6",color="darkgreen", size = 5) +
        annotate(geom="text", x=0, y=,.5, label="4",color="blue", size = 5) +
  annotate(geom="text", x=-1.2, y=2.8, label="A", size = 5) +
  annotate(geom="text", x=1.2, y=2.8, label="B", size = 5) +
  annotate(geom="text", x=1.2, y=-1.8, label="C", size = 5) +
  annotate(geom="text", x=2.9, y=-1.8, label=expression(Omega), size = 5) +
  annotate(geom="text", x=-2.9, y=-1.8, label="8", size = 5) +
        theme_void() 
## Warning in is.na(x): is.na() aplicado a um objeto diferente de lista ou vetor de
## tipo 'expression'

Probabilidade: Axiomas e Propriedades

2.1 Definição Frequentista

Definição: Dado um experimento aleatório, sendo \(\Omega\) o seu espaço amostral e \(P(A)\): probabilidade de um evento A, assumindo que \(\Omega\) é um conjunto equiprovável - todos os elementos de \(\Omega\) tem a mesma chance de ocorrerem - chamamos de probabilidade de um evento A (\(A \subset \Omega\)) o número real \(P(A)\), tal que: \[\begin{align} P(A) = \frac{n(A)}{n(\Omega)} = \frac{\mbox{Número de casos favoráveis (A)}}{\mbox{Número total de casos}}. \end{align}\] \end{defin} Limitações: \(\Omega\) tem que ser finito e equiprovável.

2.2 Definição Axiomática de Probabilidade

Em 1933, Kolmogorov generalizou e formalizou a definição de probabilidade através de axiomas e propriedades. Para entender melhor a formalização de Kolmogorov são apresentados alguns conceitos.

Leis de Morgan:

    1. \(\cup_{i=1}^{n}A_i^c = \left(\cap_{i=1}^{n}A_i\right)^c;\)
    1. \(\cap_{i=1}^{n}A_i^c = \left(\cup_{i=1}^{n}A_i\right)^c;\) Para apenas dois eventos \(A_1\) e \(A_2\), temos:
    1. \(P(A_1^c \cup A_2^c) = P[(A_1 \cap A_2)^c] = 1 - P(A_1 \cap A_2);\)
    1. \(P(A_1^c \cap A_2^c) = P[(A_1 \cup A_2)^c] = 1 - P(A_1 \cup A_2).\)

Definição: Uma classe \(\mathscr{A}\) de subconjuntos de \(\Omega\) é dita sobre \(\Omega\) se:

    1. \(\emptyset \in \mathscr{A}\);
    1. \(A \in \mathscr{A} \Longrightarrow A^c \in \mathscr{A}\);
    1. \(A, B \in \mathscr{A} \Longrightarrow (A \cup B) \in \mathscr{A}\);

Notas:

  • Por indução finita, segue de \((iii)\) que \(\mathscr{A}\) é fechada por união finita, isto é, se \(A_1, A_2, \ldots, A_n \in \mathscr{A}\) então \[\cup_{i=1}^{n}A_i \in \mathscr{A};\]

  • De \((ii)\) e \((iii)\), seque que \(\mathscr{A}\) é fechada por intersecção finita, isto é, se \(A_1, A_2, \ldots, A_n \in \mathscr{A}\) então \[\cap_{i=1}^{n}A_i = \left[\cup_{i=1}^{n}A_i^c\right]^c \in \mathscr{A}.\]

Motivações Práticas

  • Lançamento de uma moeda. Podemos estar interessados nos eventos:\ \(A\): Sair cara ou \(A^c\): Sair coroa;
  • Será que vai chover amanhã? Eventos: \(C\): chover amanhã ou \(C^c\): não chover amanhã;
  • Lançamento de um dado. Podemos estar interessados na probabilidade de sair face 1 ou 2 ou 3, ou seja, tem-se a necessidade de saber a probabilidade da união de eventos

\begin{defin} Uma classe \(\mathscr{A}\) de subconjuntos de \(\Omega\) é dita sobre \(\Omega\) se:

    1. \(\emptyset \in \mathscr{A}\);
    1. \(A \in \mathscr{A} \Longrightarrow A^c \in \mathscr{A}\);
    1. Se \(A_1, A_2, \ldots \in \mathscr{A} \Rightarrow \cup_{i=1}^{\infty}A_i \in \mathscr{A}\).

Notas: De \((ii)\) e \((iii)\) segue que \(\mathscr{A}\) é fechada por intersecção enumerável, isto é, se \(A_1, A_2, \ldots \in \mathscr{A}\), então \[\cap_{i=1}^{\infty}A_i = \left[\cup_{i=1}^{\infty}A_i^c\right]^c \in \mathscr{A} \]

Tempo de vida de uma lâmpada ou dispositivo eletrônico.\

Exemplos:

  • Álgebras Triviais: \(\Omega \neq \emptyset\); \(\mathscr{A_1} = \{\Omega, \emptyset\}\).
  • Considere \(\Omega = \{1,2,3\}\) e as seguintes coleções de subconjuntos: \[\mathscr{A}_1 = \{\emptyset, \Omega, \{1\}, \{2,3\}\};\] \[\mathscr{A}_2 = \{\emptyset, \Omega, \{1\}, \{2\}, \{1,3\},\{2,3\}\};\] Seriam ambas \(\sigma\)-álgebras?

Observação: Toda \(\sigma\)-álgebra é uma álgebra mas nem toda álgebra é uma \(\sigma\)-álgebra.

Definição: Uma função \(P\), definida na \(\sigma\)-álgebra \(\mathscr{A}\) de subconjuntos de \(\Omega\) que assume valores no intervalo \(\left[0,1\right]\), é uma probabilidade se satisfaz os axiomas:

  • \(P(\Omega) = 1;\)
  • Para todo subconjunto \(A \in \mathscr{A}\), \(P(A) \geq 0\);
  • Para toda sequência \(A_1, A_2, \ldots \in \mathscr{A}\), mutuamente exclusivos, temos: \[P\left(\cup_{i=1}^{\infty}A_i\right) = \sum_{i=1}^{\infty} P(A_i).\] A trinca \((\Omega,\mathscr{A},P)\) é denominada espaço de probabilidade. Os eventos são subconjuntos de \(\mathscr{A}\) e são a eles que atribuímos as probabilidades.

Propriedades:

    1. \(0 \leq P(A) \leq 1, \forall A \in \Omega\);
    1. \(P(\Omega) = 1\); \(P(\emptyset) = 0\);
    1. \(P(A^c) = 1 - P(A)\);
    1. Se \(A \subseteq B,\) \(A, B \in \mathscr{A},\) então \(P(A) \leq P(B);\)
    1. Sendo \(A\) e \(B\) dois eventos quaisquer, vale: \[P(B) = P(B \cap A^c) + P(B \cap A);\]
    1. Regra da Adição de probabilidades: \[P(A \cup B) = P(A) + P(B) - P(A \cap B);\]
    1. Se A e B são eventos (\(P(A \cap B) = 0\)), a regra da adição se reduz a: \[P(A \cup B) = P(A) + P(B)\]
  • Para eventos quaisquer \(A_1, A_2, \ldots \in \mathscr{A}\) \[P\left(\cup_{i=1}^{\infty}A_i\right) \leq \sum_{i=1}^{\infty} P(A_i).\]

Probabilidade Condicional e Independência de Eventos

O evento em que ambos, A e B, ocorrem é chamado A interseção B; portanto, a probabilidade do evento A ocorrer, dado que B ocorreu, é de: \[ P(A|B) = \frac{P(A \cap B)}{P(B)}, \quad P(B) \neq 0. \] Isso significa que a probabilidade de A ocorrer, dado que B ocorreu, é igual à probabilidade de ocorrência simultânea de A e B dividida pela probabilidade de ocorrência de B. Sempre que calculamos \(P(A|B)\), estamos essencialmente calculando \(P(A)\) em relação ao espaço amostral reduzido devido a \(B\) ter ocorrido, em lugar de faze-lo em relação ao espaço amostral original \(\Omega\).

Da expressão acima vemos que é necessário o cálculo da probabilidade do evento interseção. Exceto quando já é conhecida, esta probabilidade pode ser obtida por:

Regra do Produto \[ P(A \cap B) = P(A|B)\times P(B) \] - b) Se os eventos A e B forem , \(P(A|B) = P(A)\), logo \[ P(A \cap B) = P(A)\times P(B) \] - c) Pela , \(P(A \cap B) = \frac{n(A \cap B)}{n(\Omega)}\). - d) Para três eventos, por exemplo, pode-se escrever: \[ P(A \cap B \cap C) = P(A)\times P(B|A)\times P(C|A \cap B), \] a ordem do condicionamento pode ser invertida.

Exercícios

  1. Uma urna contém 2 bolas verdes e 4 bolas azuis. Tiram-se 2 bolas ao acaso sem reposição. Qual a probabilidade de que as duas bolas:
    1. sejam verdes?
    1. sejam da mesma cor?
    1. sejam de cores diferentes?

Solução: Seja X: variável aleatória que conta o número de bolas verdes em uma amostra de 2 elementos, sem reposição. Então X tem distribuição hipergeométrica: \[P(X=k)=\frac{\binom{K}{k}\binom{N-K}{n-k}}{\binom{N}{n}}\] onde \(N\) é o tamanho da urna, \(K\) é o número de bolas verdes na urna, \(n\) é o tamanho da amostra e \(k\) é o número de bolas verdes na amostra,

    1. \[P(X=2)=\frac{\binom{2}{2}\binom{4}{0}}{\binom{6}{2}}\approx 0,0667\], de acordo com o cálculo no R:
K=2 
k=2 
N=6 
n=2 
p=dhyper(k,K,N-K,n)
p
## [1] 0.06666667

Outro modo, com cálculos binomiais:

K=2 
k=2 
N=6 
n=2 
choose(K,k)*choose(N-K,n-k)/choose(N,n)
## [1] 0.06666667
  1. A probabilidade de um gato estar vivo daqui a 5 anos é \(\frac{3}{5}\). A probabilidade de um cão estar vivo daqui a 5 anos é \(\frac{4}{5}\). Considerando os eventos independentes, a probabilidade de:
    1. somente o cão estar vivo daqui a 5 anos. Resp: $ pois: \[ \mbox{ Sejam: } \left\{ \begin{array}{ll} G: \mbox{ O gato estar vivo daqui a 5 anos}\\ C: \mbox{ O cão estar vivo daqui a 5 anos} \end{array} \right.\\ \Rightarrow P(G^c \cap C) = P(C) - P(G \cap C) = \frac{4}{5}-\frac{3.4}{5.5}=\frac{20-12}{25}=\frac{8}{25} \]
    1. o cão estar vivo e o gato estar vivo. Resp: \[ P(G \cap C) = \frac{3.4}{5.5}=\frac{12}{25} \]
  1. Em um lote de 12 peças, 4 são defeituosas. Duas peças são retiradas uma após a outra, sem reposição.
    1. Qual a probabilidade de que ambas sejam boas?
    1. Qual a probabilidade de que a 1ª peça boa e a 2ª defeituosa? R: 0,2424.

Solução: Seja X: variável aleatória que conta o número de peças boas em uma amostra de 2 peças, sem reposição. Então X tem distribuição hipergeométrica.

    1. \[P(X=2)=\frac{\binom{12-4}{2}\binom{4}{0}}{\binom{12}{2}}\approx 0.4242\], de acordo com o cálculo no R:

de acordo com o cálculo no R:

K=8 
k=2 
N=12 
n=2 
p=dhyper(k,K,N-K,n)
p
## [1] 0.4242424

Outro modo:

K=8 
k=2 
N=12 
n=2 
choose(K,k)*choose(N-K,n-k)/choose(N,n)
## [1] 0.4242424
    1. Neste caso a ordem é importante, então resolve-se pelo princípio fundamental da contagem: \[ \mbox{P(1ª peça boa & 2ª peça defeituosa)}=\frac{8}{12}.\frac{4}{11}=\frac{32}{132}\approx0.2424 \]
  1. Um baralho de 52 cartas é subdividido em 4 naipes: copas, espadas, ouros e paus.
    1. Retirando-se uma carta ao acaso, qual a probabilidade de que ela seja de ouros ou de copas? R: 0,5.
    1. Retirando-se duas cartas ao acaso com reposição da 1ª carta, qual a probabilidade de ser a 1ª de ouros e a 2ª de copas? R: 0,0625.
    1. Recalcular a probabilidade anterior se não houver reposição da 1ª carta. R:0,0637.
    1. Havendo reposição, qual a probabilidade de sair a 1ª carta de ouros ou então a 2ª de copas? R: 0,5.

Auxílio do R

deck = data.frame(
numero = rep(c(2:10, "J", "Q", "K", "A"),4),
naipe = c(rep("$\\color{red}{\\heartsuit}$",13), rep("$\\color{black}{\\spadesuit}$",13), rep("$\\color{red}{\\diamondsuit}$",13), rep("$\\color{black}{\\clubsuit}$",13))) %>%
mutate(carta = paste0(numero,naipe))

A = deck %>%
  filter(naipe=="$\\color{red}{\\diamondsuit}$" | naipe=="$\\color{red}{\\heartsuit}$") 

 A[sample(1:nrow(A),size=10),] %>%
    select(-c(numero,naipe))%>%
      `colnames<-`(c("somente uma carta"))  %>%
  t() %>%
  kbl(caption="Visualizando alguns elementos de A",col.names = NULL,escape = FALSE)
Visualizando alguns elementos de A
somente uma carta 7\(\color{red}{\heartsuit}\) Q\(\color{red}{\heartsuit}\) 3\(\color{red}{\heartsuit}\) J\(\color{red}{\diamondsuit}\) 8\(\color{red}{\diamondsuit}\) 2\(\color{red}{\heartsuit}\) K\(\color{red}{\diamondsuit}\) 5\(\color{red}{\diamondsuit}\) 7\(\color{red}{\diamondsuit}\) 4\(\color{red}{\diamondsuit}\)
paste0("numero de elementos do espaço amostral, na letra a = ",nrow(deck))
## [1] "numero de elementos do espaço amostral, na letra a = 52"
paste0("numero de elementos do evento A, na letra a = ",nrow(A))
## [1] "numero de elementos do evento A, na letra a = 26"
paste0("resultado da letra a = ",nrow(A)/nrow(deck))
## [1] "resultado da letra a = 0.5"
Omega = permutations(n=52,r=2,v=deck$carta,repeats.allowed=TRUE)  %>%
  data.frame() %>%
  `colnames<-`(c("carta_I","carta_II")) 
  
paste0("numero de elementos do espaço amostral, na letra b = ",nrow(Omega))
## [1] "numero de elementos do espaço amostral, na letra b = 2704"
B = Omega %>%
  filter(str_detect(carta_I,"diamond")==1) %>%
  filter(str_detect(carta_II,"heart")==1)

B[sample(1:nrow(B),size=10),] %>%
  t() %>%
  kbl(caption="Visualizando alguns elementos de B",col.names = NULL,escape = FALSE)
Visualizando alguns elementos de B
carta_I K\(\color{red}{\diamondsuit}\) 9\(\color{red}{\diamondsuit}\) 10\(\color{red}{\diamondsuit}\) 9\(\color{red}{\diamondsuit}\) A\(\color{red}{\diamondsuit}\) 8\(\color{red}{\diamondsuit}\) 3\(\color{red}{\diamondsuit}\) 7\(\color{red}{\diamondsuit}\) 4\(\color{red}{\diamondsuit}\) 10\(\color{red}{\diamondsuit}\)
carta_II 4\(\color{red}{\heartsuit}\) 7\(\color{red}{\heartsuit}\) J\(\color{red}{\heartsuit}\) 2\(\color{red}{\heartsuit}\) 2\(\color{red}{\heartsuit}\) 9\(\color{red}{\heartsuit}\) 8\(\color{red}{\heartsuit}\) 3\(\color{red}{\heartsuit}\) 9\(\color{red}{\heartsuit}\) A\(\color{red}{\heartsuit}\)
paste0("numero de elementos do evento B, na letra b = ",nrow(B))
## [1] "numero de elementos do evento B, na letra b = 169"
paste0("resultado da letra b = ",nrow(B)/nrow(Omega))
## [1] "resultado da letra b = 0.0625"
Omega = permutations(n=52,r=2,v=deck$carta,repeats.allowed=FALSE) %>%
  data.frame() %>%
  `colnames<-`(c("carta_I","carta_II"))

paste0("numero de elementos do espaço amostral, na letra c = ",nrow(Omega)) 
## [1] "numero de elementos do espaço amostral, na letra c = 2652"
C = Omega %>%
  filter(str_detect(carta_I,"diamond")==1) %>%
  filter(str_detect(carta_II,"heart")==1)

C[sample(1:nrow(C),size=10),] %>%
  t() %>%
  kbl(caption="Visualizando alguns elementos de C",col.names = NULL,escape = FALSE)
Visualizando alguns elementos de C
carta_I J\(\color{red}{\diamondsuit}\) Q\(\color{red}{\diamondsuit}\) 2\(\color{red}{\diamondsuit}\) 4\(\color{red}{\diamondsuit}\) 7\(\color{red}{\diamondsuit}\) 3\(\color{red}{\diamondsuit}\) 8\(\color{red}{\diamondsuit}\) 8\(\color{red}{\diamondsuit}\) 5\(\color{red}{\diamondsuit}\) K\(\color{red}{\diamondsuit}\)
carta_II K\(\color{red}{\heartsuit}\) A\(\color{red}{\heartsuit}\) 8\(\color{red}{\heartsuit}\) K\(\color{red}{\heartsuit}\) 6\(\color{red}{\heartsuit}\) 6\(\color{red}{\heartsuit}\) K\(\color{red}{\heartsuit}\) 10\(\color{red}{\heartsuit}\) 8\(\color{red}{\heartsuit}\) 7\(\color{red}{\heartsuit}\)
paste0("numero de elementos do evento C, na letra c = ",nrow(C))
## [1] "numero de elementos do evento C, na letra c = 169"
paste0("resultado da letra c = ",nrow(C)/nrow(Omega))
## [1] "resultado da letra c = 0.0637254901960784"
D = Omega %>%
  filter(str_detect(carta_I,"diamond")==1 | str_detect(carta_II,"heart")==1)

D[sample(1:nrow(D),size=10),] %>%
  t() %>%
  kbl(caption="Visualizando alguns elementos de D",col.names = NULL,escape = FALSE)
Visualizando alguns elementos de D
carta_I 8\(\color{red}{\diamondsuit}\) 7\(\color{red}{\diamondsuit}\) 9\(\color{black}{\spadesuit}\) 9\(\color{red}{\diamondsuit}\) 2\(\color{red}{\diamondsuit}\) 3\(\color{red}{\diamondsuit}\) 4\(\color{red}{\diamondsuit}\) 3\(\color{black}{\spadesuit}\) Q\(\color{black}{\clubsuit}\) 5\(\color{red}{\diamondsuit}\)
carta_II 3\(\color{red}{\diamondsuit}\) 3\(\color{red}{\heartsuit}\) Q\(\color{red}{\heartsuit}\) 6\(\color{black}{\clubsuit}\) J\(\color{red}{\heartsuit}\) 3\(\color{black}{\clubsuit}\) K\(\color{black}{\clubsuit}\) 3\(\color{red}{\heartsuit}\) Q\(\color{red}{\heartsuit}\) K\(\color{red}{\heartsuit}\)
paste0("numero de elementos do evento D, na letra d = ",nrow(D))
## [1] "numero de elementos do evento D, na letra d = 1157"
paste0("resultado da letra d = ",nrow(D)/nrow(Omega))
## [1] "resultado da letra d = 0.436274509803922"

Resolução: - a) Como os eventos são disjuntos, basta somar as probabilidades: \[ \mbox{ Sejam: } \left\{ \begin{array}{ll} O: \mbox{ A carta é de ouros}\\ C: \mbox{ A carta é de copas} \end{array} \right.\\ \Rightarrow P(O \cup C) = P(O) + P(C) = \frac{13}{52}\times 2 = 50\% \]

    1. Neste caso a ordem é importante, então resolve-se pelo princípio fundamental da contagem: \[ \mbox{P(1ª carta de ouros & 2ª carta de copas)}=\frac{13}{52}.\frac{13}{52}=\frac{169}{2704}\approx 0.0625 \]
    1. Também resolve-se pelo princípio fundamental da contagem: \[ \mbox{P(1ª carta de ouros & 2ª carta de copas)}=\frac{13}{52}.\frac{13}{51}=\frac{169}{2652}\approx 0.0637 \]
    1. Também pela regra da adição e princípio fundamental da contagem: \[ \begin{array}{llll} && \mbox{P(1ª carta de ouros ou 2ª carta de copas)}=\\ && \mbox{P(1ª carta de ouros) + P(2ª carta de copas)-P(1ª carta de ouros & 2ª carta de copas)}=\\ && \frac{13}{52}+\frac{13}{52}-\frac{169}{2704}=\frac{676.2-169}{2704}=0.4375 \end{array} \]
  1. Em uma cidade, existem 3 jornais: A, B e C. A porcentagem de indivíduos que leem esses jornais são as seguintes:
jornais=c("A","B","C","A e B", "B e C","C e A","A, B e C")
porcentagem=c("10%","30%","5%","8%","4%","2%","1%")
dados=cbind(jornais,porcentagem)
datatable(dados,caption="Tabela 1: Resultados da Pesquisa",class = 'cell-border order-column compact hover',options = list(pageLength = 5,columnDefs=list(list(targets=1:2, class="dt-center"))))

Os jornais A e C são matutinos e B vespertino. Obtenha a probabilidade de que um modador da cidade selecionado ao acaso:

    1. Leia só o jornal C; R:0,00;
    1. Leia apenas um jornal; R:0,20;
    1. Leia pelo menos dois jornais; R:0,12;
    1. Não leia nenhum jornal; R:0,68;
    1. Leia pelo menos um jornal matutino e o vespertino; R:0,11;
    1. Leia somente um jornal matutino e o vespertino. R:0,10;

2.3 Árvores de probabilidade

A construção de uma árvore de probabilidade fornece uma ferramenta muito útil para a solução de problemas envolvendo duas ou mais etapas. A árvore consiste em uma representação gráfica na qual diversas possibilidades são representadas, juntamente com as respectivas probabilidades condicionadas a cada situação. Isso permite, pela utilização direta da regra do produto das probabilidades, associar a cada nó terminal da árvore a respectiva probabilidade.

O uso das árvores de probabilidade ajudam e simplificam o entendimento da aplicação de dois teoremas que serão apresentados a seguir, conforme será visto nos exercícios.

Exemplo: Em certo colégio, 5% dos homens e 2% das mulheres têm mais de 1,80m de altura. Por outro lado, 60% dos estudantes são homens. Sorteando-se um estudante aleatoriamente, qual a probabilidade de:

    1. Ser mulher e ter mais de 1,80m?
    1. Ter mais de 1,80m?
    1. Um estudante é escolhido ao acaso e tem mais de 1,80m. Qual a probabilidade de que o estudante seja mulher?

Solução Inicial: Considere os seguintes eventos:

  • \(A_1\): Estudante do sexo masculino;

  • \(A_2\): Estudante do sexo feminino;

  • \(B\): Estudante com mais de 1,80m de altura;

  • \(B^{c}\): Estudante com menos de 1,80m de altura;

  • Ser mulher \((A_2)\) e ter mais de 1,80m (\(B\))? \[ P(A_2 \cap B) = 0,40 \times 0,02 = 0,008 \]

  • Ter mais de 1,80m? \[ \begin{array}{lll} P(B)&=& P(A_2 \cap B)+ P(A_1 \cap B)\\ P(A_1 \cap B)&=&0,60 \times 0,05 = 0,03\\ P(B)& = & 0,008 + 0,03 = 0,038 \end{array} \]

  • Um estudante é escolhido ao acaso e tem mais de 1,80m. Qual a probabilidade de que o estudante seja mulher? \[ P(A_2|B)=\frac{P(A_2 \cap B)}{P(B)}=\frac{0,008}{0,038}\cong 0,2105. \]

2.4 Teorema da probabilidade total

Seja \(A_1, A_2, \cdots, A_n\) uma partição e B um evento qualquer de \(\Omega\), conforme ilustrado na figura a seguir:

Então \[ P(B) = \sum_{i=1}^{n} P(A_i \cap B) = \sum_{i=1}^{n} P(A_i)P(B|A_i) \] ou \[ P(B) = P(A_1)P(B|A_1) + P(A_2)P(B|A_2) +\cdots + P(A_n)P(B|A_n) \]

Para dois eventos apenas \(A_1\) e \(A_2\), temos: \[ P(B) = P(A_1 \cap B) + P(A_2 \cap B) = P(A_1)P(B|A_1) + P(A_2)P(B|A_2) \]

3 Teorema de Bayes

Nas mesmas condições do teorema anterior: \[ P(A_j|B) = \frac{P(A_j).P(B|A_j)}{\sum_{i=1}^{n} P(A_i)P(B|A_i)}, \quad j = 1, 2,\cdots, n. \] Esse resultado consegue-se facilmente do teorema anterior e demais propriedades. Observe que o denominador de () é a própria \(P(B)\) calculada pelo teorema da probabilidade total.

Para dois eventos apenas \(A_1\) e \(A_2\), temos: \[ P(A_1|B) = \frac{P(A_1).P(B|A_1)}{P(A_1)P(B|A_1) + P(A_2)P(B|A_2) }, \]

Exercícios

  1. Três máquinas, A, B e C produzem respectivamente 40%, 50% e 10% do total de peças de uma fábrica. As porcentagens de peças defeituosas nas respectivas máquinas são 3%, 5% e 2%. Uma peça é sorteada ao acaso e verifica-se que é defeituosa. Qual a probabilidade de que a peça tenha vindo da máquina B? E da máquina A? Resp: B: $\(0,641; A:\)$0,31.\

  2. Há apenas dois modos de Genésio ir para Genebra participar de um congresso: Avião ou Navio. A probabilidade de Genésio ir de navio é de 40% e de ir de avião 60%. Se ele for de navio, a probabilidade de chegar ao congresso com dois dias de atraso é de 8,5%. Se ele for de avião a probabilidade cai para 1%. Sabe-se que Genésio chegou com dois dias de atraso para participar do congresso em Genebra. A probabilidade de ele ter ido de avião é: Resp: 0,15.

4 Exercícios

  1. Sejam A e B dois eventos em um dado espaço amostral, tais que \(P(A) = 0,2\), \(P(B) = p\), \(P(A \cup B) = 0,5\), \(P(A \cap B) = 0,1\). Determine o valor de \(p\).

  2. Se \(P(A)\) = 1/2 e \(P(B)\) = 1/4 e A e B são eventos mutuamente exclusivos, calcule:\

  1. \(P(A^c)\)(b) \(P(B^c)\) (c) \(P(A \cap B)\)(d) \(P(A|B)\)
  1. Um geólogo diz que existe uma probabilidade 0,8 de ter petróleo numa certa região, além disso se nessa terra existe petróleo a probabilidade na primeira perfuração de sair petróleo é 0,5. Qual é a probabilidade de ter petróleo se na primeira perfuração não se encontrou petróleo?

  2. Carlos chega atrasado à universidade 25% das vezes, e esquece o material da aula 20% das vezes. Admitindo que essas ocorrências sejam independentes, determine a probabilidade de Carlos:

    1. chegar atrasado 2 dias seguidos;
    1. chegar atrasado e sem o material de aula;
    1. chegar na hora e com o material de aula;
    1. chegar na hora e sem o material de aula.
  1. Um grupo de 60 pessoas apresenta a seguinte composição:

Uma pessoa é escolhida ao acaso. Pergunta-se: - a) qual é a probabilidade de ser homem? - b) qual é probabilidade de ser adulto? - c) qual é probabilidade de ser menor e ser mulher? - d) sabendo-se que a pessoa escolhida é adulto, qual a probabilidade de ser homem? - e) dado que a escolhida é mulher, qual a probabilidade de ser menor?

  1. Paulo e Roberto foram indicados para participarem de um torneio de basquete. A probabilidade de Paulo ser escolhido para participar do torneio é 3/5. A probabilidade de Roberto ser escolhido para participar do mesmo torneio é 1/5. Sabendo que a escolha de um deles é independente da escolha do outro, a probabilidade de somente Paulo ser escolhido para participar do torneio é igual a:
    1. 4/5
    1. 10/25
    1. 12/25
    1. 3/5
    1. 4/5
  1. Um sistema automático de alarme contra incêndio utiliza três células sensíveis ao calor que agem independentemente uma das outras. Cada célula entra em funcionamento com probabilidade 0,8 quando a temperatura atinge 60°C. Se pelo menos uma das células entrar em funcionamento, o alarme soa. Calcular a probabilidade do alarme soar quando a temperatura atingir 60°.

  2. Carlos diariamente almoça um prato de sopa no mesmo restaurante. A sopa é feita de forma aleatória por um dos três cozinheiros que lá trabalham: 40% das vezes a sopa é feita por João; 40% das vezes por José, e 20% das vezes por Maria. João salga demais a sopa 10% das vezes; José o faz em 5% das vezes, e Maria 20% das vezes. Como de costume, um dia qualquer Carlos pede a sopa e, ao experimentá-la, verifica que está salgada demais. Qual a probabilidade de que essa sopa tenha sido feita por José?

  3. André está realizando um teste de múltipla escolha, em que cada questão apresenta 5 alternativas, sendo uma e apenas uma correta. Se André sabe resolver a questão, ele marca a resposta certa. Se ele não sabe, ele marca aleatoriamente uma das alternativas. André sabe 60% das questões do teste.

    1. Então, a probabilidade de ele acertar uma questão qualquer do teste (isto é, de uma questão escolhida ao acaso) é igual a:
    1. Se para uma dada questão ele dá a resposta certa, qual é a probabilidade de que ele conhecia a pergunta?
  1. A probabilidade de haver atraso no vôo diário que leva a mala postal a certa cidade é 0,2. A probabilidade de haver atraso na distribuição local da correspondência é 0,15 se não houver atraso no vôo e 0,25 se houver atraso no vôo.
    1. Qual a probabilidade de a correspondência ser distribuída com atraso em certo dia?
    1. Se em certo dia a correspondência foi distribuída com atraso, qual a probabilidade de que tenha havido atraso no vôo?
    1. Qual a probabilidade de que tenha havido atraso no vôo se a correspondência não foi distribuída em atraso?
  1. Um meteorologista acerta 80% dos dias em que chove e 90% dos dias que faz bom tempo. Chove em 10% dos dias. Tendo havido previsão de chuva, qual a probabilidade de chover?

  2. Dados dois eventos A e B associados a um mesmo espaço amostral mostre que \[ P(A^c \cap B^c) = 1 - P(A) - P(B) + P(A \cap B) \]

  3. Dados dois eventos A e B associados a um mesmo espaço amostral e \(P\) uma probabilidade definida nos eventos de \(\Omega\), então: \[P\{(A \cap B^c) \cup (A^c \cap B)\} = P(A) + P(B) - 2P(A \cap B)\].

  4. Uma mensagem é codificada em código binário, consistindo de dois símbolos: (zero) e (um). As probabilidades de transmissão dos 2 símbolos são 0,45 e 0,55 respectivamente. No canal os símbolos são distorcidos em com probabilidade 0,2 e os símbolos são distorcidos em com probabilidade 0,1. Ache a probabilidade de que tendo recebido:

  • um ele não seja distorcido;
  • um ele não seja distorcido;
  1. Considere dois lançamentos de um dado equilibrado (honesto). Determine a probabilidade condicional de se obter a face 2 no primeiro lançamento, dada a informação de que a soma dos resultados foi 7.
dado=seq(1,6,1) 

Omega=permutations(n=6,r=2,v=dado,repeats.allowed=TRUE)  %>%      
    data.frame() %>%
   `colnames<-`(c("lançamento_I","lançamento_II"))

B = Omega %>%
    filter(lançamento_I+lançamento_II==7)  

   datatable(B,cap="Descrição do evento B: soma igual a 7, com 6 elementos",options = list(pageLength = 5,columnDefs=list(list(targets=1:2, class="dt-center"))))
AB = Omega %>%
    filter(lançamento_I+lançamento_II==7)  %>%
    filter(lançamento_I==2)

     datatable(AB,cap="Descrição do evento A intersecção B: primeiro lançamento igual a 2 e soma igual a 7",options = list(columnDefs=list(list(targets=1:2, class="dt-center"))))
data.frame(
eventos = c("soma igual a 7","1º lançamento igual a 2 e soma igual a 7","1º lançamento igual a 2 dado que a soma é igual a 7"),
notação = c("B","$A \\cap B$", "$A | B$"),
probabilidade = c("P(B)","$P(A \\cap B)$", "$P(A | B)$"),
cálculo = c("$\\frac{n_B}{n_{\\Omega}}$","$\\frac{n_{A\\cap B}}{n_{\\Omega}}$", "$\\frac{n_{A\\cap B}}{n_{B}}$"),
resultado = c(nrow(B)/nrow(Omega),nrow(AB)/nrow(Omega),nrow(AB)/nrow(B))) %>%
  kbl(caption="Solução do exercício",escape = FALSE) %>%
  kable_classic(  html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"),)
Solução do exercício
eventos notação probabilidade cálculo resultado
soma igual a 7 B P(B) \(\frac{n_B}{n_{\Omega}}\) 0.1666667
1º lançamento igual a 2 e soma igual a 7 \(A \cap B\) \(P(A \cap B)\) \(\frac{n_{A\cap B}}{n_{\Omega}}\) 0.0277778
1º lançamento igual a 2 dado que a soma é igual a 7 \(A | B\) \(P(A | B)\) \(\frac{n_{A\cap B}}{n_{B}}\) 0.1666667
  1. Cacá e Ronaldinho estão machucados e talvez não possam defender o Brasil em sua próxima partida contra a Argentina. A probabilidade de Cacá jogar é 40%, e a de Ronaldinho, 70%. Com ambos os jogadores, o Brasil terá 60% de probabilidade de vitória; sem nenhum deles, 30%; com Cacá mas sem Ronaldinho, 50%, e com Ronaldinho mas sem Cacá, 40%. Qual é a probabilidade de o Brasil ganhar a partida?

  2. Para casais que moram em uma dada região de Cuiabá, a probabilidade do marido estar satisfeito com o prefeito atual é de \(21\%\), a probabilidade da esposa estar satisfeita com o prefeito atual é de \(28\%\) e a probabilidade de que ambos, esposa e o marido estejam satisfeitos é de \(15\%\). Determine:

    1. O espaço amostral;
    1. Pelo menos um membro do casal estar satisfeito com o prefeito atual;
    1. Nenhum dos membros do casal estar satisfeito com o prefeito atual;
    1. A esposa estar satisfeita, dado que o marido está satisfeito com o prefeito atual.
  1. Uma classe de estatística teve a seguinte distribuição das notas finais: 4 do sexo masculino e 6 do feminino foram reprovados, 8 do sexo masculino e 14 do feminino foram aprovados. Para um aluno sorteado dessa classe, denote por M se o aluno escolhido for do sexo masculino e por A se o aluno foi
  • \(P(A\cup M^c);\)
  • \(P(A^c\cap M^c);\)
  • \(P(A|M);\)
  • \(P(M^c|A);\)
  • \(P(M|A).\)
  1. Um restaurante popular apresenta apenas dois tipos de refeições: salada completa ou um prato à base de carne. Considere que 20% dos fregueses do sexo masculino preferem a salada, 30% das mulheres escolhem carne, 75% dos fregueses são homens e os seguintes eventos:
  • H: freguês é homem;

  • M: freguês é mulher;

  • A: freguês prefere salada;

  • B: freguês prefere carne; Calcular:

    1. \(P(H)\), \(P(A|H)\), \(P(B|M)\);
    1. \(P(A\cap H)\), \(P(A\cup H)\);
    1. \(P(M|A)\);
  1. Você entrega a seu amigo uma carta, destinada à/ao sua/seu namorada(o), para ser colocada no correio. Entretanto, ele pode se esquecer com probabilidade 0,1. Se não se esquecer, a probabilidade de que o correio extravie a carta é de 0,1. Finalmente, se foi enviada pelo correio a probabilidade de que a/o namorada(o) não a receba (por outros motivos) é de 0,1.
    1. seu amigo ter esquecido de colocar a carta no correio?
    1. Avalie as possibilidades de esse namoro continuar, se a comunicação depender das cartas enviadas.
      Dica: Utilize os conceitos de probabilidade condicional, probabilidade total, e o teorema de Bayes.

5 Variáveis Aleatorias

Muitos experimentos aleatórios produzem resultados não-numéricos. Por exemplo, considere o caso de um questionário, em que uma pessoa é indagada a respeito de uma proposição e as respostas possíveis são “SIM” ou “NAO”. Podemos definir uma variável que tome dois valores, 1 ou 0, por exemplo, correspondentes as respostas “SIM” ou “NAO”. Portanto antes de analisar esse tipo de experimento, é conveniente transformar seus resultados em números, o que é feito através da variável aleatória, que é uma regra de associaçãode um valor numérico a cada ponto do espaço amostral.

A Variável Aleatória é: Magalhães, M.N.; Lima, A.C.P. Noções de Probabilidade e Estatística.

  • Discreta: se assume valores num conjunto enumerávell, com certa probabilidade;
  • Contínua: se seu conjunto de valores é qualquer intervalo dos números reais, o que seria um conjunto não enumerávell.

Definição: Seja \((\Omega, \mathscr{A}, P)\) um espaço de probabilidade. Denomina-se variável aleatória, qualquer função \(X: \Omega \rightarrow \mathbb{R}\) tal que \[X^{-1}(I) = \left\{\omega \in \Omega: X(\omega) \in I\right\} \in \mathscr{A},\] para todo intervalo \(I \subset \mathbb{R}.\) Em palavras, \(X\) é tal que sua imagem inversa de intervalos \(I \subset \mathbb{R}\) pertençam a \(\sigma\)-álgebra \(\mathscr{A}\).

  • Uma variável aleatória é, portanto, uma função do espaço amostral \(\Omega\) nos reais, para a qual é possível calcular a probabilidade de ocorr?ncia de seus valores.
  • Define-se \(\mathscr{P}(\Omega)\) (“partes de \(\Omega\)”) como o conjunto de todos os subconjuntos de \(\Omega\). As \(\mathscr{P}(\Omega)\) sempre são \(\sigma\)-álgebras.

Exemplo 1: \[ \begin{array}{lllllll} \mbox{Experimento: lançamento de uma moeda};\\ \mbox{Eventos: c = sair cara e k = sair coroa};\\ \mbox{Espaço Amostral: }\Omega = \{c,k\}\\ \mbox{Defina a variável }X \mbox{ tal que: }X(c) = 0 \mbox{ ou }X(k) = 1;\\ \sigma\mbox{-álgebras: }\mathscr{A}_1 = \{\Omega,\emptyset\} \mbox{ e } \mathscr{A}_2 = \{\Omega,\emptyset, \{c\},\{k\}\};\\ X \mbox{ é uma variável aleatória com relação as } \sigma-\mbox{álgebras} \mathscr{A}_1 \mbox{ e } \mathscr{A}_2?\\ \end{array} \]

Resolução: Vamos começar com a \(\sigma\)-álgebra \(\mathscr{A}_1.\): \[ \begin{array}{ll} \square \mbox{Para o intervalo } I_1 = (-1,2) \Rightarrow X^{-1}(I_1) = \{c,k\} \in \mathscr{A}_1;\\ \square \mbox{Para o intervalo } I_2 = (-1,0.5) \Rightarrow X^{-1}(I_2) = \{c\} \notin \mathscr{A}_1. \end{array} \] Logo para a \(\sigma\)-álgebra \(\mathscr{A}_1\), \(X\) não é uma variável aleatória. Agora a \(\sigma\)-álgebra \(\mathscr{A}_2:\) Seja \(I \subset \mathbb{R}\) um intervalo arbitrário. Pela definição de imagem inversa, tem-se que \(X^{-1}(I) \subset \mathscr{A}_2\) e, portanto \(X\) é uma variável aleatória. Por exemplo, se \(I = (2,4)\) temos que \(X^{-1}(I) = \emptyset \in \mathscr{A}_2;\) No entanto, para o intervalo \(I_2 = (-1,0.5)\) temos \(X^{-1}(I_2) = \{c\} \in \mathscr{A}_2\), ou seja, em ambos os casos a imagem inversa pertence a \(\mathscr{A}_2\).

Exemplo 2: Considere \(\Omega = \{1,2,3\}\) e as seguintes coleções de subconjuntos: \[ \begin{array}{ll} \mathscr{A}_1 = \{\emptyset, \Omega, \{1\}, \{2\}, \{3\}, \{1,2\}, \{1,3\},\{2,3\}\};\\ \mathscr{A}_2 = \{\emptyset, \Omega, \{3\}, \{1,2\}\}; \end{array} \] - Seriam ambas \(\sigma\)-álgebras? - Definindo a variável \(X\) tal que: \(X\)(1) = 1, \(X\)(2) = 2 e \(X\)(3) = 3, verifique se \(X\) ? uma variável aleatória com relação a \(\mathscr{A}_1\) e \(\mathscr{A}_2\).

Resolução:

  • Para que \(\mathscr{A}_1\) seja uma \(\sigma\)-álgebra deve satisfazer as seguintes condições:
    • \(\emptyset \in \mathscr{A}_1\); \(\mathscr{A}_1\) satisfaz a propriedade (i);
    • Observe que os complementares dos elementos de \(\mathscr{A}_1\) estão todos também em \(\mathscr{A}_1,\) pois: \[\emptyset^c = \Omega; \Omega^c = \emptyset; \{1\}^c = \{2,3\}; \{2\}^c = \{1,3\}; \{3\}^c = \{1,2\}\] \[\{1,2\}^c = \{3\}; \{1,3\}^c = \{2\}; \{2,3\}^c = \{1\}\] Logo, \(\mathscr{A}_1\) satisfaz a propriedade (ii); - iii) A união de qualquer elemento de com o vazio é inócua e a com o \(\Omega\) dá o próprio \(\Omega\), portanto vamos verificar as demais uniões: \[\{1\}\cup\{2\}=\{1,2\}; \{1\}\cup\{3\}=\{1,3\}; \{2\}\cup\{3\}=\{2,3\}; \{1\}\cup\{2\}\cup\{3\}=\Omega;\] \[\{1,2\}\cup\{1,3\}=\{1,2,3\}; \{1,2\}\cup\{2,3\}=\{1,2,3\}; \{1,3\}\cup\{2,3\}=\{1,2,3\};\] Os resultados das uniões pertencem a \(\mathscr{A}_1\), logo \(\mathscr{A}_1\) é uma \(\sigma\)-álgebra. Fica como exercício para o aluno verificar se \(\mathscr{A}_2\) também é uma \(\sigma\)-álgebra.
  • Resolução em sala de aula.

Definição Seja \(X\) uma variável aleatória em \((\Omega, \mathscr{A}, P)\), sua função de distribuição é definida por \[F_{X}(x) =P(X \leq x) =P(X \in \left(-\infty,x\right]),\]

com \(x\) percorrendo todos os reais. O conhecimento da função distribuição permite obter qualquer informação sobre a variável. Mesmo que a variável só assuma valores num subconjunto dos reais, a função de distribuição é definida em toda a reta. (Magalhães, M.N.; Lima, A.C.P. Noções de Probabilidade e Estatística). A função distribuição também é denominada por alguns autores de função acumulada, pois acumula as probabilidades dos valores menores ou iguais a \(x\).

Propriedade: Propriedades da Função Distribuição

Uma função de distribuição de uma variável \(X\) em \((\Omega, \mathscr{A}, P)\) obedece às seguintes propriedades:

  • \(\lim_{x\rightarrow -\infty}F_X(x) = 0\) e \(\lim_{x\rightarrow \infty}F_X(x) = 1;\)

  • \(F_X\) é contínua à direita;

  • \(F_X\) é não decrescente, ou seja, \(F_X(x) \leq F_X(y)\) sempre que \(x\leq y, \forall x, y \in \mathbb{R}.\)

    Além dessas propriedades enunciadas temos:

  • \(P(X>a) = 1 - P(X \leq a) = 1 - F_X(a), a \in \mathbb{R};\)

  • \(P(a<X\leq b) =P(X \leq b) - P(X \leq a) = F_X(b) - F_X(a), \forall a, b \in \mathbb{R};\)

  • Para \(I = \left(-\infty,x\right]\), \(P(X \in I) =P(X\leq x) =P(\{\omega \in \Omega: X(\omega) \in I\});\)

Exemplo 1: Para o lançamento de uma moeda, seja \(\Omega = \{c,k\}\), \(\mathscr{A}\) o conjunto das partes de \(\Omega\) e \(X\) uma função de \(\Omega\) em \(\mathbb{R}\) \((X: \Omega \rightarrow \mathbb{R})\) da seguinte forma:

\[ X(\omega) = \left\{ \begin{array}{ll} 0, \mbox{se }\omega &=& \mbox{cara}; \\ 1, \mbox{se }\omega &=& \mbox{coroa}. \end{array} \right. \]

Note que \(X \sim \mbox{Bernoulli}(p)\) tal que \(P\)(cara) = \(1-p\) e \(P\)(coroa) = \(p\). Determine a função de distribuição de X e represente graficamente.

Gráfico no R:

p=0.4
x = seq(-1,2,0.1)
y = ifelse(x<0,0,
            ifelse(x<1,p,1))
data = data.frame(x=x[-length(x)],y=y[-length(x)], xend=x[-1], yend=y[-length(x)])     
ggplot(data, aes( x=x, y=y ,xend=xend,yend=yend)) +
geom_segment(size=1.2,color="orange")+
geom_point( aes( x=0, y=0 ), shape=1, size=3,color="orange")+
geom_point( aes( x=1, y=0.4 ), shape=1, size=3,color="orange") +
labs(x="x",y="F(x)",title="Função de distribuição acumulada")

Exemplo 2: O tempo de validade, em meses, de um óleo lubrificante num certo equipamento está sendo estudado. Sendo \(\Omega = \left\{\omega \in \mathbb{R}: 6 < \omega \leq 8\right\}\). Uma função de interesse é o próprio tempo de validade e, nesse caso, definimos \(X(\omega) = \omega, \forall \omega \in \Omega.\) A função \(X\) é variável aleatória e sua função de distribuição é dada por: \[ F_X(x) = \left\{ \begin{array}{lll} 0, & \mbox{ se } x<6; \\ \frac{x-6}{2}, & \mbox{ se } 6 \leq x < 8;\\ 1, & \mbox{ se } x \geq 8. \end{array} \right. \]

Verifique se as propriedades da função de distribuição estão satisfeitas. Faça o gráfico de \(F_X(x)\).

Gráfico no R:

x = seq(4,10,0.1)
y = ifelse(x<6,0,
            ifelse(x<8,(x-6)/2,1))
data = data.frame(x=x,y=y)                 
ggplot(data, aes( x=x, y=y)) +
   xlim(4,10)+
   ylim(0,1)+
geom_line(size=1.2)+
  labs(x="x",y="F(x)",title="Função de distribuição acumulada")

5.1 Variável Aleatória Discreta e Função de Probabilidade

Uma variável aleatória é classificada como discreta, se assume somente um número enumerável de valores (finito ou infinito). A função de probabilidade de uma variável discreta é uma função que atribui probabilidade a cada um dos possíveis valores assumidos pela variável. Isto é, sendo \(X\) uma variável com valores \(x_1, x_2, \ldots,\) tem-se para \(i = 1, 2, \ldots,\) \[P(x_i) =P(X=x_i) =P(\{\omega \in \Omega: X(\omega)=x_i\}),\] ou ainda,

5.2 Propriedades da Função de Probabilidade

A função de probabilidade de \(X\) em (\(\Omega, \mathscr{A},P\)) satisfaz:

\[ \begin{array}{ll} \square 0 \leq P(x_i) \leq 1, \forall i = 1, 2, \ldots;\\ \square \sum_{i} P(x_i) = 1; \end{array} \] com a soma percorrendo todos os possíveis valores (eventualmente infinitos).

Exemplo: E: lançamento de duas moedas; \[ \begin{array}{lll} X: \mbox{ número de caras obtidas nas duas moedas};\\ c = \mbox{ sair cara e k = sair coroa};\\ \Omega = \{(c,c), (c,k), (k,c),(k,k)\}\\ \mbox{Valores que } X \mbox{ pode assumir: } X = 0, 1 \mbox{ ou } 2.\\ X = 0: \mbox{ corresponde ao evento} (k,k) \mbox{ com probabilidade }P(k \cap k)= \frac{1}{2}.\frac{1}{2} = \frac{1}{4}.\\ X = 1: \mbox{ corresponde ao evento} (c,k), (k,c) \mbox{ com probabilidade }P(c \cap k) + P(k \cap c)=\frac{1}{2}. \frac{1}{2} + \frac{1}{2}.\frac{1}{2} = \frac{1}{2}.\\ X = 2: \mbox{ corresponde ao evento} (c,c) \mbox{ com probabilidade }P(c \cap c)=\frac{1}{2}.\frac{1}{2} = \frac{1}{4}.\\ \end{array} \]

A função de probabilidade é dada por:

Exemplo: Considere uma urna contendo três bolas vermelhas e cinco pretas. Retire três bolas, sem reposição, e defina a v.a. X igual ao número de bolas pretas. Obtenha a distribuição (Função de probabilidade) de X. Solução: A variável aleatória de interesse é \(X:\) número de bolas pretas. Defina os eventos: P - bola retirada é preta e V - bola retirada é vermelha. O espaço amostral para esse experimento dada a v.a definida é \[ \Omega = \left\{(V,V,V), (V,P,P), (P,V,P), (P,P,V), (P,V,V), (V,P,V), (V,V,P), (P,P,P)\right\}. \] A v.a \(X\) pode assumir os valores 0, 1, 2 ou 3. A probabilidade de ocorrência de cada valor é dada por: \[ \begin{array}{lll} P(X=0) &= P(V\cap V\cap V) = \frac{3}{8}.\frac{2}{7}.\frac{1}{6} = \frac{6}{336};\\ P(X=1) &= P(P\cap V\cap V) + P(V\cap P\cap V) + P(V\cap V\cap P) = 3.\frac{5}{8}.\frac{3}{7}.\frac{2}{6} = \frac{90}{336};\\ P(X=2) &= P(V\cap P \cap P) + P(P\cap V\cap P) + P(P\cap P\cap V) = 3.\frac{3}{8}.\frac{5}{7}.\frac{4}{6} = \frac{180}{336};\\ P(X=3) &= P(P\cap P\cap P) = \frac{5}{8}.\frac{4}{7}.\frac{3}{6} = \frac{60}{336}; \end{array} \] A função de probabilidade é dada por: ## Variável Aleatória Contínua e Função Densidade Uma variável aleatória \(X\) em (\(\Omega, \mathscr{A},P\)), com função de distribuição \(F_X\), será classificada como contínua, se existir uma função não negativa \(f_X\) tal que: \[F_X(x) =P(X \leq x) = \int_{-\infty}^{x} f_X(w)dw, \forall x \in \mathbb{R}.\] A função \(f_X\) é denominada função densidade.

5.3 Propriedades da Função Densidade

A função densidade de \(X\) em (\(\Omega, \mathscr{A},P\)) satisfaz: \[ \begin{array}{ll} \square f_X(x) \geq 0, \forall x \in \mathbb{R};\\ \square \int_{-\infty}^{\infty} f_X(w)dw = 1. \end{array} \]

Para se obter a probabilidade da variável estar num certo intervalo \((a,b],\) faz-se a integral da função densidade nesse intervalo, ou seja, \[ P(a<X\leq b) = \int_{a}^{b} f_X(x)dx = F_X(b) - F_X(a). \]

Exemplo: A duração, em anos, de uma certa lâmpada especial é uma variável aleatória contínua com densidade dada por:

\[ f_X(x) = \left\{ \begin{array}{ll} 2e^{-2x}, & x \geq 0;\\ 0, & \mbox{ caso contrário} \end{array} \right. \mbox{, ou seja, } f_X(x) = 2e^{-2x} I_{\left[0,\infty\right)}(x). \] A densidade acima também pode ser escrita da seguinte forma: Para se obter a função de distribuição \(F_X(x) =P(X \leq x) = \int_{-\infty}^{x} f_X(w)dw,\) analisa-se dois casos. \[ \begin{array}{ll} \square \mbox{Para }x<0, F_X(x) = 0, \mbox{ pois a função densidade é nula nesse intervalo.}\\ \square \mbox{Para } x \geq 0, \mbox{ temos } F_X(x) =P(X \leq x) = \int_{-\infty}^{x} f_X(w)dw = \int_{0}^{x} 2e^{-2w}dw = 1 - e^{-2x}. \end{array} \]

Se desejamos saber a probabilidade da lâmpada durar até 2 anos, calcula-se \(F_X(x)\) no ponto 2, ou seja, \(F_X(2) = 1 - e^{-4} \approx 0,9817.\)

Aplicação no R:

  • Verificamos que a integral sob a curva é igual a 1.
F=antiD(2*exp(-2*x) ~ x)
paste0("Integral não definida da função:")
## [1] "Integral não definida da função:"
A = F(Inf)-F(0)
paste0("Àrea sob a curva = ",A)
## [1] "Àrea sob a curva = 1"
P=F(2)-F(0)
paste0("probabilidade da lâmpada durar até 2 anos = ",round(P,4))
## [1] "probabilidade da lâmpada durar até 2 anos = 0.9817"
E=antiD(2*exp(-2*x)*x ~ x)
E=E(Inf)-E(0)
paste0("Média da exponencial com parâmetro igual a 2 = ",E)
## [1] "Média da exponencial com parâmetro igual a 2 = 0.5"

6 Função de Distribuição Condicional

Seja \(X\) definida em (\(\Omega, \mathscr{A},P\)) e considere um evento \(A \in \mathscr{A},\) tal que \(P(A)>0.\) A função de distribuição condicional de \(X\) dado que \(A\) ocorreu, é definida por: \[ F_X(x|A) =P(X \leq x|A) = \frac{P(\left[X \leq x\right] \cap A)}{P(A)} \].

Exemplo pg 78 do Magalhães (capa rosa) Exemplo: O desempenho diário, de um certo conjunto de ações, pode ser medido como a porcentagem de crescimento do preço de venda em relação ao dia anterior. Suponha que este desempenho é uma variável aleatória contínua \(X\) com função densidade dada por:

    1. O desempenho negativo indica que as ações perderam valor de um dia para o outro. Qual seria a probabilidade de se ter um dia com desempenho excepcional, isto é, superior a 3%, dado que o desempenho foi positivo? Resp: 1/10.
    1. Seja agora o evento B, desempenho regular, definido por não haver alteração superior a 1\(\%\) em relação ao dia anterior. Supondo que tivemos um desempenho não positivo, qual a probabilidade de termos, ao menos, um dia regular? Resp: 5/9.

7 Vetores Aleatórios

Em diversas áreas do conhecimento é natural que o pesquisador planeje sua pesquisa estatística buscando responder questões práticas. Essas questões eventualmente consistem em trabalhar conjuntamente com duas ou mais variáveis. Nesta seção, apresenta-se o tratamento probabilístico para um conjunto de variáveis aleatórias.

Definição: Vetor Aleatório Seja (\(\Omega, \mathscr{A}, P\)) um espaço de probabilidade e \(\textbf{X}\) uma função de \(\Omega\) em \(\mathbb{R}^m\). Definimos como vetor aleatório, variável aleatória multidimensional ou variável aleatória multivariada a função representada por \(\textbf{X}(\omega) = (X_1(\omega), X_2(\omega), \cdots, X_m(\omega))\) tal que para todo \(i=1, 2, \ldots,m\) e todo \(I_i \subset \mathbb{R}\), temos \(X_i^{-1}(I_i) \in \mathscr{A}\).

7.1 Função de Distribuição Conjunta

A função distribuição conjunta de \(\textbf{X}\) é definida por \[F(\textbf{x}) = F(x_1,x_2,\ldots,x_m) = P(X_1\leq x_1, X_2\leq x_2, \ldots, X_m\leq x_m),\] para qualquer \(\textbf{x} = (x_1,x_2,\ldots,x_m) \in \mathbb{R}^m.\)

7.2 Propriedades da Função de Distribuição Conjunta

Seja \(\textbf{X}\) um vetor aleatório em (\(\Omega, \mathscr{A}, P\)) então para qualquer \(\textbf{x} \in \mathbb{R}^m\), \(F(\textbf{x})\) satisfaz as seguintes propriedades:

  • \(F(\textbf{x})\) é não decrescente em cada uma de suas coordenadas;
  • \(F(\textbf{x})\) é contínua à direita em cada uma de suas coordenadas;
  • Se para algum \(j\), \(x_j \rightarrow -\infty\), então \(F(\textbf{x})\rightarrow 0\) e, ainda, se para todo \(j\), \(x_j \rightarrow \infty\), então \(F(\textbf{x})\rightarrow 1\);
  • \(F(\textbf{x})\) é tal que, \(\forall a_i, b_i \in \mathbb{R}, a_i<b_i, i = 1, \ldots,m,\) temos \[P(a_1<X_1 \leq b_1, a_2<X_2 \leq b_2,\ldots, a_m<X_m \leq b_m) \geq 0.\]

Vetor Discreto: Probabilidade Conjunta Se as variáveis do vetor aleatório são discretas, temos um vetor aleatório discreto. Sua função de probabilidade conjunta é definida da seguinte forma: \[P(\textbf{x}) = P(x_1,x_2,\ldots,x_m) = P(X_1 = x_1, X_2 = x_2, \ldots, X_m = x_m).\]

Propriedades da Função de Probabilidade Conjunta Seja um vetor aleatório discreto em (\(\Omega, \mathscr{A}, P\)). Então sua função de probabilidade conjunta satisfaz as propriedades:

  • \(P(\textbf{x}) \geq 0, \forall \textbf{x} \in \mathbb{R}^m;\)
  • \(\sum_{\textbf{x}} P(\textbf{x}) = 1.\)

Para o caso bidimensional a função de probabilidade conjunta é dada por: \[P(\textbf{x}) = P(x_1,x_2) = P\left[(X_1 = x_1) \cap (X_2 = x_2)\right] = P(X_1 = x_1, X_2 = x_2).\] A partir da função de probabilidade conjunta é possível obter as de \(X_1\) e \(X_2\), através da soma de uma das coordenadas. Assim, \(P(X_1=x_1) = \sum_{x_2}P(x_1,x_2)\) e \(P(X_2=x_2) = \sum_{x_1}P(x_1,x_2)\).

Exemplo: Duas moedas equilibradas são lançadas de forma independente e definiu-se as variáveis aleatórias \(X\) e \(Y\) da seguinte forma:\ \(X:\) número de caras nos dois lançamentos;\ \(Y:\) função indicadora de faces iguais nos dois lançamentos.\ O espaço de probabilidade associado a esse experimento é dado pela trinca (\(\Omega, \mathscr{A}, P\)) em que\ \(\Omega\) = {(c,c), (c,k), (k,c),(k,k)}; c = sair cara e k = sair coroa;\ \(\mathscr{A} = \{\Omega, \emptyset,\{c\},\{k\}\}\) é a \(\sigma\)-álgebra do conjunto das partes de \(\Omega\).\ A função de probabilidade \(P\) atribui igual probabilidade aos elementos de \(\Omega\).

Baseado nos resultados do experimento temos:

data.frame(
  Eventos=c("(c,c)","(c,k)","(k,c)","(k,k)"),
  Probabilidades=c("$\\frac{1}{4}$","$\\frac{1}{4}$","$\\frac{1}{4}$","$\\frac{1}{4}$"),
  X=c(2,1,1,0),
  Y=c(1,0,0,1)) %>%
  kbl(escape = FALSE)%>%
 kable_classic( html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position")) 
Eventos Probabilidades X Y
(c,c) \(\frac{1}{4}\) 2 1
(c,k) \(\frac{1}{4}\) 1 0
(k,c) \(\frac{1}{4}\) 1 0
(k,k) \(\frac{1}{4}\) 0 1

A função de probabilidade conjunta de \(X\) e \(Y\) é dada por

data.frame(
a= c(0,1,2,"$P(Y=y)$"),
b=  c(0,"$\\frac{1}{2}$",0,"$\\frac{1}{2}$"),
c=  c("$\\frac{1}{4}$",0,"$\\frac{1}{4}$","$\\frac{1}{2}$"),
d=  c("$\\frac{1}{4}$","$\\frac{1}{2}$","$\\frac{1}{4}$",1))%>%
   `colnames<-`(c("$X \\setminus Y$","0","1","$P(X=x)$")) %>%
  kbl(escape = FALSE)%>%
 kable_classic( html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"))
\(X \setminus Y\) 0 1 \(P(X=x)\)
0 0 \(\frac{1}{4}\) \(\frac{1}{4}\)
1 \(\frac{1}{2}\) 0 \(\frac{1}{2}\)
2 0 \(\frac{1}{4}\) \(\frac{1}{4}\)
\(P(Y=y)\) \(\frac{1}{2}\) \(\frac{1}{2}\) 1

Para obter a função de probabilidade marginal de \(X\) temos que somar nos valores observados de \(Y\), \(P(X=x) = \sum_{y}P(x,y)\). Ou seja, \[ \begin{array}{ll} P(X=0) &= P(X=0,Y=0)+P(X=0,Y=1) = 0 + \frac{1}{4} = \frac{1}{4},\\ P(X=1) &= P(X=1,Y=0)+P(X=1,Y=1) = \frac{1}{2} + 0 = \frac{1}{2},\\ P(X=2) &= P(X=2,Y=0)+P(X=2,Y=1) = 0 + \frac{1}{4} = \frac{1}{4}. \end{array} \]

Analogamente, para calcular a função de probabilidade marginal de \(Y\) temos que somar nos valores observados de \(X\), \(P(Y=y) = \sum_{x}P(x,y)\). Ou seja, \[ \begin{array}{ll} P(Y=0) &= P(X=0,Y=0)+P(X=1,Y=0) +P(X=2,Y=0) = 0 + \frac{1}{2} + 0 = \frac{1}{2},\\ P(Y=1) &= P(X=0,Y=1)+P(X=1,Y=1) +P(X=2,Y=1) = \frac{1}{4} + 0 + \frac{1}{4} = \frac{2}{4} = \frac{1}{2}. \end{array} \]

data.frame(
  x=c(0,1,2),
  pX=c("$\\frac{1}{4}$","$\\frac{1}{2}$","$\\frac{1}{4}$"))%>%
  `colnames<-`(c("x","$P(X=x)$")) %>%
  t()%>%
  kbl(caption="Função de probabilidade marginal de X",col.names=NULL)%>%
 kable_classic(html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"))
Função de probabilidade marginal de X
x 0 1 2
\(P(X=x)\) \(\frac{1}{4}\) \(\frac{1}{2}\) \(\frac{1}{4}\)
data.frame(
  y=c(0,1),
  py=c("$\\frac{1}{2}$","$\\frac{1}{2}$"))%>%
  `colnames<-`(c("y","$P(Y=y)$")) %>%
  t()%>%
  kbl(caption="Função de probabilidade marginal de Y",col.names=NULL)%>%
 kable_classic(html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"))
Função de probabilidade marginal de Y
y 0 1
\(P(Y=y)\) \(\frac{1}{2}\) \(\frac{1}{2}\)

Definição: Vetor Contínuo, Densidade Conjunta e Marginal Denominamos vetor aleatório contínuo o vetor aleatório cujas componentes são variáveis aleatórias contínuas. Em outras palavras, um vetor aleatório é contínuo se, dada a função de distribuição \(F\), existe uma função \(f: \mathbb{R}^m \rightarrow \mathbb{R}^{+}\), denominada função densidade conjunta, tal que \[F(\textbf{x}) = \int_{-\infty}^{x_1}\ldots\int_{-\infty}^{x_m} f(\textbf{y}) dy_1\ldots dy_m.\]

A função densidade marginal é dada pela expressão: \[f_{X_k}(x_k) = \int_{x_1}\ldots \int_{x_m} f(\textbf{x})dx_1\ldots dx_m, \forall i\neq k.\]

7.3 Propriedades da Função Densidade Conjunta

Seja X um vetor aleatório contínuo em (\(\Omega, \mathscr{A}, P\)). Então sua função densidade conjunta satisfaz as propriedades:

  • \(f(\textbf{x}) \geq 0, \forall \textbf{x} \in \mathbb{R}^m;\)
  • \(\int_{-\infty}^{\infty}\ldots\int_{-\infty}^{\infty} f(\textbf{x})dx_1\ldots dx_m = 1.\)

\begin{ex} Obtenha o valor de \(k\), de modo que a função abaixo seja a densidade conjunta de três variáveis aleatórias contínuas \(X\), \(Y\) e \(Z\). \[ f(x,y,z) = \left\{ \begin{array}{ll} kxy^2z,& \mbox{ se } 0\leq x\leq 1 \mbox{ e } 0\leq y\leq 1 \mbox{ e } 0\leq z\leq \sqrt{2}; \\ 0, & \mbox{ caso contrário}. \end{array} \right. \]

  • Dado o valor de \(k\) obtenha as marginais de \(X\), \(Y\) e \(Z\).

Exemplo: A função mista de probabilidade conjunta de \(X\) e \(Y\) é dada por: \[ f(x,y) = \left\{ \begin{array}{lll} \frac{xy^{x-1}}{3},& \mbox{ se } x = 1,2,3 \mbox{ e } 0\leq y\leq 1; \\ 0, & \mbox{ caso contrário}. \end{array} \right. \] - Verifique se essa função poderá gerar probabilidades; - Calcule a probabilidade conjunta de \(X\geq 2\) e \(Y\geq 1/2\).

7.4 Função de Distribuição Condicional

Caso 1: \(X\) e \(Y\) variáveis contínuas:

 A função de distribuição condicional de $X$ dado $Y=y$ é dada por:

\[F_{X|Y}(x|y) = P(X\leq x| Y\leq y) = \frac{P(\left[X\leq x\right]\cap \left[Y\leq y\right])}{P(Y\leq y)}.\]

Caso 2 - \(X\) contínua e \(Y\) discreta:

A função de distribuição condicional de \(X\) dado \(Y=y\) (\(Y\) uma variável aleatória discreta) é dada por: $$

F_{X|Y}(x|Y=y) = . $$

Como consequência temos: \[ F_X(x) = \sum_{y} P(Y=y)F_{X|Y}(x|Y=y). \]

Função de Probabilidade Condicional - Caso Discreto \[ P_{X|Y}(x|y) = \frac{P_{X,Y}(x,y)}{P_Y(y)}. \]

Função de Densidade Condicional - Caso Contínuo \[ f_{X|Y}(x|y) = \frac{f_{X,Y}(x,y)}{f_Y(y)}. \]

Exemplo: As variáveis \(X\) e \(Y\) têm densidade dada por \[ f_{X,Y}(x,y) = (x+y), \quad 0\leq x\leq 1, \quad 0\leq y\leq 1. \] Obtenha a densidade condicional \(f_{X|Y}(x|y)\).

Definição: Independência entre Variáveis Duas variáveis aleatórias, \(X\) e \(Y\) em (\(\Omega, \mathscr{A}, P\)), são independentes se a informação sobre uma delas não altera a probabilidade de ocorrência da outra. Em termos de função distribuição temos: \[ X, Y \mbox{ independentes} \Leftrightarrow F_{X,Y}(x,y) = F_X(x)F_Y(y), \forall (x,y) \in \mathbb{R}^2. \]

Para as discretas, podemos escrever uma definição equivalente com o uso de funções de probabilidade: \[X, Y \mbox{ independentes} \Leftrightarrow P_{X,Y}(x,y) = P_X(x)P_Y(y), \forall (x,y) \in \mathbb{R}^2.\] Para as contínuas, a condição de independência usa as densidades: \[ X, Y \mbox{ independentes} \Leftrightarrow f_{X,Y}(x,y) = f_X(x)f_Y(y), \forall (x,y) \in \mathbb{R}^2. \] %% pg 134 - Magalhães (capa rosa)

Exemplo: Com base em resultados do posto de saúde do bairro, estabeleceu-se a função de probabilidade conjunta entre os números diários de crianças atendidas com alergia (\(X\)) e com pneumonia (\(Y\)). Na tabela abaixo, apresentamos a conjunta e as marginais para essas variáveis.

data.frame(
a=  c(0,1,2,3,"$P(Y=y)$"),
b=  c("$\\frac{1}{16}$","$\\frac{1}{8}$","$\\frac{1}{16}$","0","$\\frac{1}{4}$"),
c=  c("$\\frac{1}{16}$","$\\frac{1}{8}$","$\\frac{1}{8}$","$\\frac{1}{8}$","$\\frac{7}{16}$"),
d=  c("$\\frac{1}{8}$","0","$\\frac{1}{8}$","$\\frac{1}{16}$","$\\frac{5}{16}$"),
e=  c("$\\frac{1}{4}$","$\\frac{1}{4}$","$\\frac{5}{16}$","$\\frac{3}{16}$","1")) %>%
   `colnames<-`(c("$X \\setminus Y$","0","1","2","$P(X=x)$")) %>%
  kbl()%>%
 kable_classic(html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"))
\(X \setminus Y\) 0 1 2 \(P(X=x)\)
0 \(\frac{1}{16}\) \(\frac{1}{16}\) \(\frac{1}{8}\) \(\frac{1}{4}\)
1 \(\frac{1}{8}\) \(\frac{1}{8}\) 0 \(\frac{1}{4}\)
2 \(\frac{1}{16}\) \(\frac{1}{8}\) \(\frac{1}{8}\) \(\frac{5}{16}\)
3 0 \(\frac{1}{8}\) \(\frac{1}{16}\) \(\frac{3}{16}\)
\(P(Y=y)\) \(\frac{1}{4}\) \(\frac{7}{16}\) \(\frac{5}{16}\) 1
  • Verifique se as variáveis \(X\) e \(Y\) são independentes.
  • Condicionado a ocorrência ou não de casos de pneumonia, qual a probabilidade de não haver crianças alérgicas?

8 Esperança de Variáveis Aleatórias

O conceito de valor esperado ou média parece ter sido historicamente desenvolvido para avaliar ganhos em jogos de azar. O retorno financeiro, obtido em uma jogada de dados ou rodada de um certo jogo de cartas, seria imprevisível. A questão de interesse era avaliar esse retorno após várias jogadas. Desta forma ficaria mais fácil contabilizar perdas e ganhos. Com o auxílio do formalismo matemático, essas ideias foram estabelecidas em definições rigorosas, incluindo os casos discreto e contínuo.

-Magalhães, M.N; Probabilidade e Variáveis Aleatórias. 3ª Edição. Edusp.

8.1 Valor Esperado para Variáveis Aleatórias Discretas

Seja \(X\) uma variável aleatória discreta com função de probabilidade \(\p\) e valor observado \(x_i, i = 1,2,\ldots,n.\) O valor esperado, ou esperança matemática ou média de \(X\) é definido por

\[ E(X) = \mu_X = \sum_{i=1}^{n}x_iP(X=x_i), \quad i = 1, 2, \ldots, n. \]

8.1.1 Valor Esperado para Variáveis Aleatórias Contínuas

Seja \(X\) uma variável aleatória contínua com função densidade \(f_X\). O valor esperado, ou esperança matemática ou média de \(X\) é definido por

\[ E(X) = \int_{-\infty}^{\infty}xf_X(x)dx, \] desde que a integral esteja bem definida. \(E(X)\) vai estar bem definida se a integral em pelo menos um desses intervalos, for finita; isto é, \[ E(X) = \int_{-\infty}^{0}xf_X(x)dx < \infty \quad \mbox{ou} \quad \int_{0}^{\infty}xf_X(x)dx < \infty. \]

Teorema Seja \(X\) uma variável aleatória com função de distribuição \(F\) e cujo valor esperado existe. Então, \[ E(X) = \int_{-\infty}^{\infty}xf_X(x)dx = \int_{0}^{\infty}[1-F_X(x)]dx - \int_{-\infty}^{0}F_X(x)dx. \] A demonstração do Teorema () pode ser encontrada em .

Teorema II Seja \(X\) uma variável aleatória cujo valor esperado existe. Considere \(Y = g(X)\), uma função de \(X\) que também é variável aleatória no mesmo espaço de probabilidade. Então: \[ E(g(X)) = \int_{-\infty}^{\infty}g(x)f_X(x)dx. \] A demonstração do Teorema () pode ser encontrada em .

Exemplo A variável aleatória \(X\) tem função densidade de probabilidade dada por: \[ f_X(x) = \left\{ \begin{array}{ll} \frac{1}{4}(x+2),& -2\leq x < 0;\\ \frac{1}{2}, & 0 \leq x < 1;\\ 0, & \mbox{caso contrário.} \end{array} \right. \] Qual a esperança de \(g(X) = X^2\)?

Solução: Para o valor esperado de \(g(X)\) temos: \[ \begin{array}{llll} E(g(X)) = E(X^2) &= \int_{-\infty}^{\infty}g(x)f_X(x)dx.\\ &= \int_{-2}^{0}x^2\frac{1}{4}(x+2)dx + \int_{0}^{1}x^2\frac{1}{2}dx \\ &= \frac{1}{4}\left.\left(\frac{x^4}{4}+\frac{2x^3}{3}\right)\right|_{-2}^0 + \left.\frac{x^3}{6}\right|_{0}^{1} = \frac{1}{2}. \end{array} \]

Definição: Sejam \((X_1,\ldots,X_n)\) um vetor \(n\)-dimensional de variáveis aleatórias com funções de probabilidades (caso discreto) ou densidade (caso contínuo) \(f_{X_1,\ldots,X_n}(x_1,\ldots,x_n)\). O valor esperado de uma função \(g(x_1,\ldots,x_n)\) de \(n\) variáveis aleatórias, denotado por \(Eleft[g(x_1,\ldots,x_n)\right]\), é definido por

\[ E\left[g(x_1,\ldots,x_n)\right] = \sum_{x_1} \ldots \sum_{x_n} g(x_1,\ldots,x_n)f_{X_1,\ldots,X_n}(x_1,\ldots,x_n), \] quando \(X_1,\ldots,X_n\) são variáveis aleatórias discretas. %somando em todos os possíveis valores assumidos pelos \(X_i's, i = 1,\ldots,n\). Se \(X_1,\ldots,X_n\) são variáveis aleatórias contínuas temos: \[\begin{equation} Eleft[g(x_1,\ldots,x_n)\right] = \int_{-\infty}^{\infty}\ldots\int_{-\infty}^{\infty} g(x_1,\ldots,x_n)f_{X_1,\ldots,X_n}(x_1,\ldots,x_n)dx_1\ldots dx_n, \end{equation}\] \end{defin}

Para uma importante aplicação da Definição , suponha que \(E(X_1)\) e \(E(X_2)\) sejam ambos finitos e faça \(g(X_1,X_2) = X_1+X_2.\) Então, no caso contínuo: \[ \begin{array}{llll} E(X_1+X_2) &= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} (x_1+x_2)f_{X_1,X_2}(x_1,x_2)dx_1dx_2,\\ &= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty}x_1f_{X_1,X_2}(x_1,x_2)dx_1dx_2 + \int_{-\infty}^{\infty}\int_{-\infty}^{\infty}x_2f_{X_1,X_2}(x_1,x_2)dx_1dx_2,\\ &= \int_{-\infty}^{\infty}x_1f_{X_1}(x_1)dx_1 + \int_{-\infty}^{\infty}x_2f_{X_2}(x_2)dx_2,\\ &= E(X_1) + E(X_2). \end{array} \]

No caso discreto: \[ \begin{array}{lll} E(X_1+X_2) &= \sum_{x_1}\sum_{x_2} (x_1+x_2)P(x_1,x_2),\\ &= \sum_{x_1}\sum_{x_2} x_1P(x_1,x_2) + \sum_{x_1}\sum_{x_2} x_2P(x_1,x_2),\\ &= \sum_{x_1}x_1P(x_1) + \sum_{x_2} x_2P_{X_2}(x_2),\\ &= E(X_1) + E(X_2). \end{array} \]

Propriedade: Esperança da Soma de Variáveis Aleatórias

Sejam \(X_1,\ldots,X_n\) variáveis aleatórias cujo valor esperado existe. Então, se a esperança da soma dessas variáveis existir, temos: \[ \begin{array}{lll} E(X_1 + \ldots + X_n) = E(X_1) + \ldots + E(X_n). \end{array} \]

Exemplo: Sejam \(X_1,\ldots,X_n,\) variáveis aleatórias independentes com distribuição Bernoulli de parâmetro \(p\). Qual o valor esperado de \(Y = X_1 + \ldots + X_n\)?

8.2 Esperança do Produto de Variáveis Aleatórias Independentes

Sejam \(X_1,\ldots,X_n\) variáveis aleatórias independentes cujo valor esperado é finito. Então, a esperança do produto dessas variáveis é finita e é igual ao produto dessas esperanças, isto é, \[ \begin{array}{lll} E\left(\prod \limits_{i=1}^{n}X_i\right) = E(X_1).E(X_2)\ldots E(X_n). \end{array} \]

8.3 Momentos e Esperança Condicional

  • Para \(k = 1,2,\ldots,\) o \(k\) da variável aleatória \(X\) é definido por \(E(X^k),\) desde que essa quantidade exista.
  • Se \(E(X) = \mu <\infty\), definimos o \(k\) por \(Eleft[(X-\mu)^k\right]\), sempre que essa quantidade existir.
  • De modo similar, o da variável aleatória \(X\) é definido por \(E(|X|^k)\).

Definição: Variância e Desvio Padrão

Sendo \(\mu<\infty\), definimos a variância de \(X\) como o momento central de ordem 2, isto é, \[Var(X) = \sigma^2 = E\left[(X-\mu)^2\right];\] O desvio padrão é a raíz quadrada da variância.

Definição: Coeficiente de Assimetria

Seja \(X\) uma variável aleatória qualquer com valor esperado \(\mu\) e desvio padrão \(\sigma\). O de \(X\), denotado por \(\alpha_3\), indica o grau de assimetria da sua distribuição de probabilidade e é definido por: \[\alpha_3 = \frac{E\left[(X-\mu)^3\right]}{\sigma^3};\] em que supomos a existência do 3º momento de \(X\).

Definição: Coeficiente de Curtose

Seja \(X\) uma variável aleatória qualquer com valor esperado \(\mu\) e desvio padrão \(\sigma\). O da variável \(X\), denotado por \(\alpha_4\), indica o grau de achatamento da sua distribuição de probabilidade e é definido por: \[\alpha_4 = \frac{E\left[(X-\mu)^4\right]}{\sigma^4};\] em que supomos a existência do 4º momento de \(X\).

Definição: Covariância

Sejam \(X\) e \(Y\) variáveis aleatórias no mesmo espaço de probabilidade. A entre entre \(X\) e \(Y\) é definida por \[Cov(X,Y) = \sigma_{X,Y} = E\left[(X-\mu_X)(Y-\mu_Y)\right];\] desde que as esperanças presentes na expressão existam.

Propriedade: A covariância entre entre \(X\) e \(Y\) é igual a esperança do produto menos o produto das esperanças, isto é, \[ Cov(X,Y) = E(XY) - E(X).E(Y); \] sempre que as esperanças envolvidas estejam bem definidas.

Propriedade: Sejam \(X_1,\ldots,X_n\) variáveis aleatórias num mesmo espaço de probabilidade. Então, sempre que as esperanças envolvidas estejam bem definidas, temos: \[\mbox{Var}\left(\sum_{i=1}^{n}X_i\right) = \sum_{i=1}^{n}\mbox{Var}(X_i) + 2\sum_{i<j}\sum \mbox{Cov}(X_i,X_j);\] em que \(1\leq i<j\leq n.\) Se, além dessas condições mencionadas, as variáveis forem independentes, então \[\mbox{Var}\left(\sum_{i=1}^{n}X_i\right) = \sum_{i=1}^{n}\mbox{Var}(X_i);\]

Exemplo: Sejam \(X_1,\ldots,X_n,\) variáveis aleatórias independentes com distribuição Bernoulli de parâmetro \(p\). Qual a variância de \(Y = X_1 + \ldots + X_n\)?

Definição: Coeficiente de Correlação Sejam \(X\) e \(Y\) variáveis aleatórias no mesmo espaço de probabilidade. Supondo que as esperanças de \(X\) e \(Y\) existam, o coeficiente de correlação entre \(X\) e \(Y\) é definido por \[\mbox{Corr}(X,Y) = \rho_{X,Y} = \frac{\mbox{Cov}(X,Y)}{\sigma_X\sigma_Y},\]

em que \(\sigma_X\) é o desvio padrão da variável aleatória \(X\) e \(\sigma_Y\) é o desvio padrão da variável aleatória \(Y\).

9 Esperança Condicional

Definição: Esperança Condicional

Sejam \((X,Y)\) duas variáveis aleatórias e \(g(x,y)\) uma função de \(X\) e \(Y\). A esperança condicional de \(g(X,Y)\) dado \(Y=y\) é definida por \[ E\left[g(X,Y)|Y=y\right] = \int_{-\infty}^{\infty} g(x,y)f_{X|Y}(x|y)dx, \] Se \((X,Y)\) são conjuntamente contínuas, e \[ E\left[g(X,Y)|Y=y\right] = \sum_{x_i} g(x,y)P(x|y), \quad i = 1,2,\ldots,n, \] se \((X,Y)\) são conjuntamente discretas.

Quando \(g(x,y) = x,\) temos \(E(X|Y)\). Essa definição pode ser generalizada para mais de duas dimensões. Sejam \((X_1,\ldots,X_n,Y_1,\ldots,Y_m)\) \(n+m\) variáveis aleatórias contínuas com densidade \(f_{X_1,\ldots,X_n,Y_1,\ldots,Y_m}(x_1,\ldots,x_n,y_1,\ldots,y_m)\), então

\[ \begin{array}{lll} E\left[g(X_1,\ldots,X_n,Y_1,\ldots,Y_m)|y_1,\ldots,y_m\right] = \int_{-\infty}^{\infty}\ldots \int_{-\infty}^{\infty} g(x_1,\ldots,x_n,y_1,\ldots,y_m)\\ \times f_{X_1,\ldots,X_n|Y_1,\ldots,Y_m}(x_1,\ldots,x_n|y_1,\ldots,y_m)dx_1\ldots dx_n. \end{array} \]

Exemplo: Sejam \(X\) e \(Y\) duas variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},\p\)) conjuntamente distribuídas segundo a densidade \(f_{X,Y}(x,y) = (x+y)I_{(0,1)}(x)I_{(0,1)}(y)\). Calcule \(E(X|Y)\).

Teorema: Sejam \(X\) e \(Y\) variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},\p\)). A esperança de \(g(X)\) pode ser obtida por

\[ E\left[g(X)\right] = E\left[E\left[g(X)|Y\right]\right], \] em particular, quando \(g(X) = X\) temos: \[ E\left[X\right] = E\left[E\left[X|Y\right]\right], \] desde que as esperanças existam.

Uma aplicação útil do Teorema é obter a esperança do produto \(XY\) em função da esperança condicional de \(X\) dado \(Y\): \[E(XY) = E\left[E(XY|Y)\right].\]

%% Magalhães - pg263: Exemplo: Um ponto \(Y\) é escolhido de acordo com o modelo Uniforme\(\left[0,1\right]\). A seguir um outro ponto \(X\) é escolhido, também segundo o modelo Uniforme contínuo, mas, agora no intervalo \(\left[0,Y\right]\). Qual o valor esperado de \(X\)?

Exemplo: A função densidade conjunta de \(X\) e \(Y\) é dada por: \[f_{X,Y}(x,y) = \frac{1}{y}\mbox{e}^{-(y+x/y)}, \quad x>0, \quad y>0.\]

Determine \(E(X)\), \(E(Y)\) e mostre que \(\mbox{Cov}(X,Y)=1\).\

Definição Variância Condicional

Sejam \((X,Y)\) duas variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},\p\)). A variância condicional de \(X\), dado \(Y=y\) é definida por \[ \mbox{Var}\left(X|Y=y\right) = E\left(X^2|Y=y\right) - E^2\left(X|Y=y\right). \] Supondo a existência das esperanças envolvidas.

Teorema: \[ \mbox{Var}\left(X\right) = E\left[\mbox{Var}\left(X|Y\right)\right] - \mbox{Var}\left[E\left(X|Y\right)\right]. \]

Definição: Covariância Condicional

Sejam \(X\), \(Y\) e \(Z\) variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},\p\)). A entre \(X\) e \(Y\) dado \(Z=z\) é definida por \[ \mbox{Cov}\left(XY|Z=z\right) = E\left(XY|Z=z\right) - E\left(X|Z=z\right)E\left(Y|Z=z\right). \] Supondo a existência das esperanças envolvidas.

10 Função Geradora de Momentos

Definição: A função geradora de momentos da variável \(X\) é definida por

\[ M_X(t) =E(e^{tX}) \left\{ \begin{array}{ll} \sum_{x}e^{tx}P(X=x), & \mbox{ se } X \mbox{ é discreta com função de probabilidade } P(X=x);\\ \int_{\infty}^{\infty}e^{tx}f_X(x)dx & \mbox{ se } X \mbox{ é contínua com função densidade} f_X(x); \end{array} \right. \] a esperança deve ser finita para \(t\) real em algum intervalo \(-h<t<h\) com \(h>0\).

\(M_X(t)\) é denominada de função geratriz de momentos porque todos os momentos de \(X\) podem ser obtidos com o cálculo sucessivo da derivada de \(M_X(t)\), avaliado em \(t=0\).

Teorema: Suponha que a função geradora de momentos de \(X\) exista. Logo, \(E(X^n)\) existe para \(n = 1, 2, \ldots\) e temos: \[E(X^n) = \frac{\partial^n}{\partial t^n}\left.M_X(t)\right|_{t=0}.\]

Exemplo: Se \(X \sim \mbox{Pois}(\lambda)\), encontre sua função geradora de momentos. A partir da função geradora de momentos calcule a média e a variância de \(X\).

Aplicação: Cálculo do somatório no onsolver
FGM da Poisson

FGM da Poisson

Cálculos da primeira derivada no R:

Deriv=mosaicCalc::D(exp(lambda*(exp(t)-1))~t)
Deriv2=mosaicCalc::D(exp(lambda*(exp(t)-1))~t+t)
Deriv
## function (t, lambda) 
## exp(lambda * (exp(t) - 1)) * (lambda * exp(t))
Deriv2
## function (t, lambda) 
## exp(lambda * (exp(t) - 1)) * (lambda * exp(t)) * (lambda * exp(t)) + 
##     exp(lambda * (exp(t) - 1)) * (lambda * exp(t))

\[ exp(\lambda.(e^t - 1)).(\lambda.e^t).(\lambda.e^t) + exp(\lambda.(e^t - 1)).(\lambda . e^t) \]

Estudo numérico: Atribui-se um vetor numérico de 0 a 100 para os valores da variável de Poisson & e o valor 20 para a taxa da Poisson:

  • As estimativas da esperança e variância são próximas do valor estipulado para \(\lambda\):
lambda=20
x=seq(0,50,1)
EX=sum(dpois(x,lambda)*x)
EX2=sum(dpois(x,lambda)*x^2)
VAR=EX2-EX^2
paste0("estimativa da esperança = ",EX)
## [1] "estimativa da esperança = 19.9999997508215"
paste0("estimativa da variância = ",VAR)
## [1] "estimativa da variância = 19.9999971042033"
  • Pela FGM: podemos efetuar a derivada numericamente, com as funções grad e hessian do pacote numDeriv Saiba mais sobre .
  • Os resultados são satisfatórios!
lambda=20
x=seq(0,50,1)
f = function(t) {
    sum(dpois(x,lambda)*exp(t*x))
}
t0=0
EX=grad(f, t0) 
EX2=hessian(f,t0)
VAR=EX2-EX^2
paste0("estimativa da esperança pela FGM= ",EX)
## [1] "estimativa da esperança pela FGM= 19.9999997508272"
paste0("estimativa da variância pela FGM= ",VAR)
## [1] "estimativa da variância pela FGM= 19.9999962081612"

Resultados:

data.frame(
  dist=c("Poisson"),
  p=c("$\\frac{e^{-\\lambda}.\\lambda^x}{x!}$"),
  fgm=c("$\\exp\\left(\\lambda(e^t-1)\\right)$"),
  deriv1=c("$\\exp(\\lambda.(e^t - 1)).(\\lambda . e^t)$"),
  E = c("$\\lambda$"),
  deriv2=c("$\\exp(\\lambda.(e^t - 1)).(\\lambda.e^t).(\\lambda.e^t) + 
    \\exp(\\lambda.(e^t - 1)).(\\lambda . e^t)$"),
  E2 =c("$\\lambda^2+\\lambda$"), 
  VAR = c("$\\lambda$"))%>%
`colnames<-`(c("Distribuição","$P(X=x)$","$M_x(t)=E\\left(e^{tX}\\right)$","$\\frac{\\partial M_x(t)}{\\partial t}$",
"$\\left|\\frac{\\partial M_x(t)}{\\partial t}\\right|_{t=0}=E(X)$",
"$\\frac{\\partial^2 M_x(t)}{\\partial t^2}$",
"$\\left|\\frac{\\partial^2 M_x(t)}{\\partial t^2}\\right|_{t=0}=E(X^2)$","$VAR(X)=E(X^2)-E^2(X)$")) %>%
  t()%>%
 kbl(caption = "FGM") %>%
  kable_classic(html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"))
FGM
Distribuição Poisson
\(P(X=x)\) \(\frac{e^{-\lambda}.\lambda^x}{x!}\)
\(M_x(t)=E\left(e^{tX}\right)\) \(\exp\left(\lambda(e^t-1)\right)\)
\(\frac{\partial M_x(t)}{\partial t}\) \(\exp(\lambda.(e^t - 1)).(\lambda . e^t)\)
\(\left|\frac{\partial M_x(t)}{\partial t}\right|_{t=0}=E(X)\) \(\lambda\)
\(\frac{\partial^2 M_x(t)}{\partial t^2}\) \(\exp(\lambda.(e^t - 1)).(\lambda.e^t).(\lambda.e^t) + \exp(\lambda.(e^t - 1)).(\lambda . e^t)\)
\(\left|\frac{\partial^2 M_x(t)}{\partial t^2}\right|_{t=0}=E(X^2)\) \(\lambda^2+\lambda\)
\(VAR(X)=E(X^2)-E^2(X)\) \(\lambda\)

Teorema: Se \(X\) e \(Y\) são variáveis aleatórias independentes, a função geradora da soma de variáveis aleatórias independentes é igual ao produto das funções geradoras individuais, ou seja \[ \begin{array}{llll} M_{X+Y}(t) &= E\left[e^{t(X+Y)}\right],\\ &= E\left[e^{tX}e^{tY}\right]\\ &= E\left[e^{tX}\right]E\left[e^{tY}\right]\\ &= M_X(t).M_Y(t). \end{array} \]

Teorema: Se duas variáveis aleatórias têm funções geradoras de momentos que existem, e são iguais, então elas têm a mesma função distribuição.

Exemplo: Utilizando a FGM, calcule a distribuição de \(X + Y\) quando \(X\) e \(Y\) são variáveis aleatórias independentes com

  • distribuição de Poisson com parâmetros \(\lambda_1\) e \(\lambda_2\), respectivamente;
  • distribuição Normal com parâmetros \((\mu_1,\sigma_1^2)\) e \((\mu_2,\sigma_2^2)\), respectivamente;

Exemplo: Sendo \(Z \sim N(0,1)\) e \(X \sim N(\mu,\sigma^2)\), encontre suas respectivas funções geradoras de momentos.

Exemplo: Função Geradora de Momentos Multidimensional Sejam \(X_1,\ldots,X_n\) variáveis aleatórias definidas num mesmo espaço de probabilidade e \(t_1,\ldots,t_n\) números reais. A função geradora de momentos multidimensional dessas variáveis é definida por \[M_{X_1,\ldots,X_n}(t_1,\ldots,t_n) = E(e^{t_1X_1+\ldots+t_nX_n}) = E(e^{\sum_{i=1}^{n}t_iX_i}),\] desde que a esperança seja finita para os \(t_i\)’s tomados numa vizinhança de zero, \(i=1,\ldots,n\).

Teorema: Função Geradora de Momentos Multidimensional - Variáveis Independentes Sejam \(X_1,\ldots,X_n\) variáveis aleatórias definidas num mesmo espaço de probabilidade com função geradora conjunta \(M_{X_1,\ldots,X_n}(t_1,\ldots,t_n)\), com os \(t_i's\) tomados numa vizinhança de zero. Então as variáveis \(X_1,\ldots,X_n\) são independentes se, e somente se, a função geradora de momentos conjunta pode ser fatorada como o produto das funções geradoras das variáveis. Isto é, \[M_{X_1,\ldots,X_n}(t_1,\ldots,t_n) = \prod_{i=1}^{n}M_{X_i}(t_i).\]

Exemplo: Sejam \(X_1\) e \(X_2\) variáveis independentes com a mesma densidade \(N(0,1)\). Vamos obter a conjunta de \(Y_1=X_1+X_2\) e \(Y_2=X_1-X_2\) e verificar se são independentes:

    1. Utilizando o método da função geradora de momentos;
    1. Utilizando o método do jacobiano.

Exemplo: Sejam \(Z_1, Z_2, \ldots, Z_n\) variáveis aleatórias normais padrão independentes. Utilizando a função geradora de momentos, mostre que \(S_n = Z_1^2+Z_2^2+\ldots+Z_n^2\) segue uma distribuição Qui-Quadrado com \(n\) graus de liberdade.

11 Distribuição da Soma e da Diferença de Variáveis Aleatórias

Sendo \(X\) uma variável aleatória em \((\Omega,\mathscr{A},P)\), a função ou transformação \(h:X\rightarrow \re\) também será uma variável aleatória no mesmo espaço de probabilidade. Dado o conhecimento de \(X\) através de, por exemplo, sua função de distribuição, desejamos obter o comportamento de \(h(X)\).

11.1 Caso Discreto

Exemplo 1: A função de probabilidade conjunta de \(X\) e \(Y\) é dada por:

data.frame(
a=  c(0,1),
b=  c("$\\frac{1}{4}$","$\\frac{1}{4}$"),
c=  c("$\\frac{1}{8}$",0),
d=  c("$\\frac{1}{8}$","$\\frac{1}{4}$")) %>%
   `colnames<-`(c("$X \\setminus Y$","0","1","2")) %>%
  kbl()%>%
 kable_classic( html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"))
\(X \setminus Y\) 0 1 2
0 \(\frac{1}{4}\) \(\frac{1}{8}\) \(\frac{1}{8}\)
1 \(\frac{1}{4}\) 0 \(\frac{1}{4}\)

Obtenha a distribuição conjunta de \(Z=X+Y\) e \(W=X-Y\).

Solução Uma forma prática de obter as funções de probabilidade dessas variáveis é construir, inicialmente, uma tabela com seus valores a partir da conjunta de \(X\) e \(Y\).

data.frame(
a=  c("(0,0)","(0,1)","(0,2)","(1,0)","(1,1)","(1,2)"),
b=  c("$\\frac{1}{4}$","$\\frac{1}{8}$","$\\frac{1}{8}$","$\\frac{1}{4}$",0,"$\\frac{1}{4}$"),
c=  c(0,1,2,1,2,3),
d=  c(0,-1,-2,1,0,-1)) %>%
   `colnames<-`(c("$X,Y$","P(x,y)","Z=X+Y","W=X-Y")) %>%
  kbl()%>%
 kable_classic( html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"))
\(X,Y\) P(x,y) Z=X+Y W=X-Y
(0,0) \(\frac{1}{4}\) 0 0
(0,1) \(\frac{1}{8}\) 1 -1
(0,2) \(\frac{1}{8}\) 2 -2
(1,0) \(\frac{1}{4}\) 1 1
(1,1) 0 2 0
(1,2) \(\frac{1}{4}\) 3 -1
data.frame(
  z=c(0,1,2,3),
  pz=c("$\\frac{1}{4}$","$\\frac{3}{8}$","$\\frac{1}{8}$","$\\frac{1}{4}$"))%>%
    `colnames<-`(c("Z=X+Y","$P(Z=z)$")) %>%
  t()%>%
  kbl(caption="Função de probabilidade marginal de Z",col.names=NULL)%>%
 kable_classic( html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"))
Função de probabilidade marginal de Z
Z=X+Y 0 1 2 3
\(P(Z=z)\) \(\frac{1}{4}\) \(\frac{3}{8}\) \(\frac{1}{8}\) \(\frac{1}{4}\)
data.frame(
  w=c(-2,-1,0,1),
  pw=c("$\\frac{1}{8}$","$\\frac{3}{8}$","$\\frac{1}{4}$","$\\frac{1}{4}$"))%>%
    `colnames<-`(c("W=X-Y","$P(W=w)$")) %>%
  t()%>%
  kbl(caption="Função de probabilidade marginal de W",col.names=NULL)%>%
 kable_classic( html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"))
Função de probabilidade marginal de W
W=X-Y -2 -1 0 1
\(P(W=w)\) \(\frac{1}{8}\) \(\frac{3}{8}\) \(\frac{1}{4}\) \(\frac{1}{4}\)

A função de probabilidade conjunta de \(Z\) e \(W\) é dada por

data.frame(
a=  c(0,1,2,3),
b=  c(0,0,"$\\frac{1}{8}$",0),
c=  c(0,"$\\frac{1}{8}$",0,"$\\frac{1}{4}$"),
d=  c("$\\frac{1}{4}$",0,0,0),
e=  c(0,"$\\frac{1}{4}$",0,0)) %>%
   `colnames<-`(c("$Z \\setminus W$",-2,-1,0,1)) %>%
  kbl()%>%
 kable_classic( html_font = "Cambria") %>%
     kable_styling(bootstrap_options = c("striped","hold_position"))
\(Z \setminus W\) -2 -1 0 1
0 0 0 \(\frac{1}{4}\) 0
1 0 \(\frac{1}{8}\) 0 \(\frac{1}{4}\)
2 \(\frac{1}{8}\) 0 0 0
3 0 \(\frac{1}{4}\) 0 0

11.2 Caso Contínuo

Sejam \(X\) e \(Y\) duas variáveis aleatórias contínuas com função densidade conjunta \(f_{X,Y}\).
Definindo \(Z=X+Y\) e \(W=X-Y\) as funções densidades da soma e da diferença são dadas por: \[ f_{X+Y}(z) = \int_{-\infty}^{\infty}f(x,z-x)dx, -\infty<z<\infty. \] \[ f_{X-Y}(w) = \int_{-\infty}^{\infty}f(w+y,y)dy, -\infty<w<\infty. \] Em muitas aplicações \(X\) e \(Y\) são independentes e as equações () e () são definidas por: \[ f_{X+Y}(z) = \int_{-\infty}^{\infty}f_X(x)f_Y(z-x)dx, -\infty<z<\infty. \]

\[ f_{X-Y}(w) = \int_{-\infty}^{\infty}f_X(w+y)f_Y(y)dy, -\infty<w<\infty. \] Se \(X\) e \(Y\) forem variáveis aleatórias independentes não-negativas, então \(f_{X+Y}(z) = 0\) para \(z\leq 0\) e \[ f_{X+Y}(z) = \int_{0}^{z}f_X(x)f_Y(z-x)dx, 0<z<\infty. \]

Prova:

Seja \(Z=X+Y\). Graficamente temos:

Em que \(A_z = \left\{(x,y)|x+y\leq z\right\}\). O conjunto \(A_z\) representa o semi-plano à esquerda inferior da reta \(z=x+y\). Assim, \[ \begin{array}{lll} F_Z(z) &= P(Z\leq z) = P(X+Y\leq z) = P((X,Y)\in A_z)\\ F_Z(z) &= \int\int_{A_z}f_{X,Y}(x,y)dxdy =\\ \int_{-\infty}^{\infty}\left(\int_{-\infty}^{z-x}f_{X,Y}(x,y)dy\right)dx. \end{array} \] Fazendo a mudança de variável \(y=v-x\) na integral interna temos: \[ \begin{array}{lll} F_Z(z) &= \int_{-\infty}^{\infty}\left(\int_{-\infty}^{z}f_{X,Y}(x,v-x)dv\right)dx,\\ &= \int_{-\infty}^{z}\left(\int_{-\infty}^{\infty}f_{X,Y}(x,v-x)dx\right)dv,\\ &= \int_{-\infty}^{z}g(v)dv, \end{array} \] em que \(g(v) = \int_{-\infty}^{\infty}f_{X,Y}(x,v-x)dx.\) Assim, a densidade de \(Z=X+Y\) é dada por: \[ f_{X+Y}(z) = \int_{-\infty}^{\infty}f_{X,Y}(x,z-x)dx, -\infty<z<\infty. \] Para \(W=X-Y\) a prova segue de forma análoga.

Exemplo 2: Sejam \(X\) e \(Y\) variáveis aleatórias independentes, cada uma com densidade exponencial de parâmetro \(\lambda\). Obtenha a distribuição de \(X+Y\).

Exemplo 3: Sejam \(X\) e \(Y\) variáveis aleatórias independentes, cada uma com distribuição normal padrão. Obtenha a distribuição de \(X+Y\).\

Solução: Como \(X\) e \(Y\) são independentes temos: \[ \begin{array}{llllll} f_{X+Y}(z) &= \int_{-\infty}^{\infty}f_X(x)f_Y(z-x)dx = \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}\times \frac{1}{\sqrt{2\pi}}e^{-\frac{(z-x)^2}{2}}dx,\\ &= \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}(x^2+z^2-2xz+x^2)}dx = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}(2x^2-2xz+z^2)}dx,\\ &= \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\left(x^2-2x\frac{z}{2}+\frac{z^2}{2}\right)}dx = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{\infty}\frac{e^{-\frac{z^2}{2}}}{\sqrt{2\pi}}e^{-\left(x^2-2x\frac{z}{2} \textcolor{red}{+\frac{z^2}{4} -\frac{z^2}{4}}\right)}dx, \\ &= \frac{1}{\sqrt{2\pi}}e^{-\left(\frac{z^2}{2} - \frac{z^2}{4}\right)} \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\left(x^2-2x\frac{z}{2}+\frac{z^2}{4}\right)}dx = \frac{1}{\sqrt{2\pi}}e^{-\frac{z^2}{4}} \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\left(x-\frac{z}{2}\right)^2}dx, \\ &= \frac{1}{\sqrt{2\pi}}\frac{1}{\sqrt{2}}e^{-\frac{z^2}{4}} \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}\frac{1}{\frac{1}{\sqrt{2}}}e^{-\frac{1}{2}\left(\frac{x-\frac{z}{2}}{\sqrt{1/2}}\right)^2}dx = \frac{1}{\sqrt{2\pi}}\frac{1}{\sqrt{2}}e^{-\frac{1}{2}\frac{z^2}{2}}, -\infty<z<\infty. \end{array} \] O integrando corresponde à densidade de uma normal com \(\mu=z/2\) e \(\sigma^2 = 1/2.\) Logo, a integral vale 1 e o termo restante corresponde a densidade de uma \(N(0,2)\).\\

Resultados Importantes:

  • Sejam \(X\) e \(Y\) variáveis aleatórias independentes tais que \(X\) tem densidade Gama(\(r_1,\lambda\)) e \(Y\) tem densidade Gama(\(r_2,\lambda\)). Logo, \(X+Y\) tem densidade Gama(\(r_1+r_2,\lambda\));
  • Sejam \(X\) e \(Y\) variáveis aleatórias independentes normalmente distribuídas com densidades \(N(\mu_1,\sigma_1^2)\) e \(N(\mu_2,\sigma_2^2)\), respectivamente. A densidade de \(X+Y\) tem distribuição Normal, ou seja, \(X+Y \sim N(\mu_1 + \mu_2,\sigma_1^2+\sigma_2^2)\) e a densidade de \(X-Y\) tem distribuição Normal, ou seja, \(X-Y \sim N(\mu_1 - \mu_2,\sigma_1^2+\sigma_2^2)\);

12 Densidade do Produto e do Quociente de Variáveis Aleatórias

Sejam \(X\) e \(Y\) duas variáveis aleatórias contínuas com densidade conjunta \(f_{X,Y}\). As funções densidades do produto e do quociente são, respectivamente, dadas por: \[ \begin{array}{ll} f_{XY}(u) &= \int_{-\infty}^{\infty}\frac{1}{\left|x\right|}f_{X,Y}\left(x,\frac{u}{x}\right)dx\\ f_{\frac{X}{Y}}(v) &= \int_{-\infty}^{\infty}\left|y\right|f_{X,Y}(vy,y)dy. \end{array} \] No caso especial em que \(X\) e \(Y\) são variáveis aleatórias independentes positivas, a densidade do quociente, definida na equação (), reduz-se a \(f_{\frac{X}{Y}}(v)=0\) para \(v\leq 0\) e \[ f_{\frac{X}{Y}}(v) = \int_{0}^{\infty}yf_{X}(vy)f_{Y}(y)dy, 0<v<\infty. \] As provas das expressões definidas em () podem ser encontradas no livro \textit{Probabilidade e Variáveis Aleatórias}'' de Marcos Nascimento Magalhães e no livro’’ de Hoel Port Stone.

12.1 Distribuição do Mínimo e do Máximo

Considere o conjunto \(X_1, X_2, \ldots,X_n\) de variáveis aleatórias independentes, cujas funções de distribuição são \(F_1,F_2,\ldots,F_n\), respectivamente. As expressões da função de distribuição de \(Y_1 = \mbox{min}(X_1,X_2,\ldots,X_n)\) e \(Y_n = \mbox{max}(X_1,X_2,\ldots,X_n)\) são dadas, respectivamente, por: \[ \begin{array}{ll} F_{Y_1}(y_1) &= 1-\prod_{i=1}^{n}\left[1-F_{X_i}(y_1)\right];\\ F_{Y_n}(y_n) &= \prod_{i=1}^{n}F_{X_i}(y_n). \end{array} \]

Exemplo 4: Sejam \(X_1\) e \(X_2\) variáveis aleatórias independentes com distribuição uniforme (0,1). Qual a distribuição de \(X_{min} = \mbox{mín}(X_1,X_2)\) e \(Y_{max} = \mbox{máx}(X_1,X_2)\).

Solução: \[ f_{X_1}(x) = \left\{ \begin{array}{ll} 0,& \mbox{se } x < 0;\\ x, & \mbox{se } 0 \leq x < 1;\\ 0, & \mbox{caso contrário.} \end{array} \right. \] Análogo para \(F_{X_2}(x)\). Sendo assim:

\[ \begin{array}{lll} F_{X_{max}}(x)&=1-\prod_{i=1}^2 [1-F_{X_i}(x)]\\ &=1-\prod_{i=}^2 (1-x)\\ &=1-(1-x)^2\\ &=1-(1-2.x+x^2)\\ &=2.x-x^2 \end{array} \Rightarrow \begin{array}{lll} f_{X_{min}}(x)&=\frac{\partial F_{X_{min}}(x)}{\partial x}\\ &=2-2.x=\\ &=2(1-x).I_{(0,1)}(x) \mbox{ com o indicador de domínio!}\\ &\therefore X_{min} \sim Beta(a=1,b=2)\\ &\mbox{ basta olhar o núcleo da densidade no apêndice!} \end{array} \] Com relação ao máximo: \[ \begin{array}{lll} F_{X_{max}}(x)&=\prod_{i=1}^2 F_{X_i}(x)\\ &=\prod_{i=1}^2 x\\ &=x^2\\ \end{array} \Rightarrow \begin{array}{lll} f_{X_{max}}(x)&=\frac{\partial F_{X_{max}}(x)}{\partial x}\\ &=2.x.I_{(0,1)}(x) \mbox{ com o indicador de domínio!}\\ &\therefore X_{max} \sim Beta(a=2,b=1) \end{array} \] E as áreas sob a curva são iguais a 1!

f_min=function(x){
  2*(1-x)
}
integrate(f_min,0,1)
## 1 with absolute error < 1.1e-14
f_max=function(x){
  2*x
}
integrate(f_max,0,1)
## 1 with absolute error < 1.1e-14

Gráficos no R:

x = seq(0,1,0.01)
fx = dunif(x)
f_mi=dbeta(x,shape1=1,shape2=2)
f_ma=dbeta(x,shape1=2,shape2=1)

data = data.frame(x,fx,f_mi,f_ma)

a=ggplot(data, aes( x=x, y=fx)) +
geom_line(size=1.2,color="orange")+
 ylim(0,1)+
labs(x="x",y="f(x)",title="densidade de X ~ U(0,1)")

b=ggplot(data, aes( x=x, y=f_mi)) +
geom_line(size=1.2,color="orange")+
labs(x="x",y="f_min(x)",title="densidade de X_min ~ Beta(1,2)")

c=ggplot(data, aes( x=x, y=f_ma)) +
geom_line(size=1.2,color="orange")+
labs(x="x",y="f_max(x)",title="densidade de X_max ~ Beta(2,1)")

grid.arrange(a, b,c, ncol = 2, nrow = 2)

Estudo de simulação: Foram gerados dois vetores de tamanhos iguais a 1000, provenientes da distribuição uniforme, foram calculados os valores mínimo e máximo para cada valor gerado, conforme vemos na tabela abaixo, e verificamos que os histogramas e as curva de densidade aproximam-se das distribuições teóricas!

set.seed(22112020)
x1=runif(1000)
x2=runif(1000)
data=data.frame(x1,x2) %>%
  mutate(x_min=ifelse(x1<x2,x1,x2),
         x_max=ifelse(x1<x2,x2,x1)) 

data %>% 
  head()%>%
  datatable(cap="visualização dos vetores X1, X2, mínimo & máximo (somente as 6 primeiras observações")
a=data %>% 
ggplot(aes( x=x1)) +
 geom_histogram(aes(y=..density..), colour="black", fill="gray")+
  geom_density(size=1.2,color="green") +
labs(x="x",y="f(x)",title="densidade de X_1")

b=data %>% 
ggplot(aes( x=x2)) +
 geom_histogram(aes(y=..density..), colour="black", fill="gray")+
  geom_density(size=1.2,color="green") +
labs(x="x",y="f(x)",title="densidade de X_2")

c=data %>% 
ggplot(aes( x=x_min)) +
 geom_histogram(aes(y=..density..), colour="black", fill="gray")+
  geom_density(size=1.2,color="green") +
labs(x="x",y="f(x)",title="densidade de X_min")

d=data %>% 
ggplot(aes( x=x_max)) +
  geom_histogram(aes(y=..density..), colour="gray", fill="gray")+
   geom_histogram(aes(y=..density..), colour="black", fill="gray")+
  geom_density(size=1.2,color="green") +
labs(x="x",y="f(x)",title="densidade de X_max")

grid.arrange(a, b,c,d, ncol = 2, nrow = 2)

13 Funções de Variáveis Aleatórias

Com frequência, conhecemos a distribuição de probabilidade de uma variável aleatória e estamos interessados em determinar a distribuição de alguma função dessa variável. Por exemplo, suponha que conheçamos a distribuição de \(X\) e queiramos obter a distribuição de \(Y=g(X)\). A densidade de \(Y\) pode ser calculada por derivação de \(F_Y(y)\): \[F_Y(y) = \int_{-\infty}^{y}g(w)dw.\] Nesse caso, \(g\) é a densidade da variável \(X\).

Exemplo 1: Seja \(X\) uma variável aleatória contínua com densidade \(f(x)=\frac{1}{2}I_{\left[1,3\right]}(x)\). Encontre a função distribuição e a função densidade de \(Z=e^{X}\).

Solução: Vemos que a variável \(e^X\) assume valores de \(e \approx 2.7183\) até \(e^3\approx 20.0855\):

x = seq(1,3,0.5)
z = exp(x)
data.frame(x,z) %>%
`colnames<-`(c("x","z=exp(x)"))%>%
datatable(cap="Alguns valores que X e Z assumem")

E a função de densidade acumulada de X: \[ F_X(x)=\left\{ \begin{array}{lll} 0, \mbox{ se x < 1}\\ \int_1^x \frac{1}{2}du = \left|\frac{u}{2}\right|_x - \left|\frac{u}{2}\right|_1 = \frac{x-1}{2} \mbox{ se } 1 \leq x \leq 3\\ 1 \mbox{ se } x >3 \end{array} \right. \]

Gráficos no R:

x = seq(0,4,0.1)
fx = ifelse(x<1,0,
            ifelse(x<3,1/2,0))
Fx = ifelse(x<1,0,
            ifelse(x<3,1/2*(x-1),1))
data = data.frame(x=x[-length(x)],fx=fx[-length(x)], xend=x[-1], fxend=fx[-length(x)],Fx=Fx[-length(x)])

a=ggplot(data, aes( x=x, y=fx ,xend=xend,yend=fxend)) +
geom_segment(size=1.2,color="orange")+
geom_point( aes( x=1, y=0 ), shape=1, size=3,color="orange")+
geom_point( aes( x=3, y=0 ), shape=1, size=3,color="orange") +
labs(x="x",y="f(x)",title="densidade de X ~ U(0,3)")

b=ggplot(data, aes( x=x, y=Fx)) +
  geom_line(size=1.2,color="orange")+
  labs(x="x",y="F(x)",title="densidade acumulada de X ~ U(0,3)")

grid.arrange(a, b, ncol = 2, nrow = 1)

Pelo método da acumulada: \[ P(Z<z)=P(e^X<z)=P(X<\log(z))\\ \Rightarrow F_Z(z) = \left\{ \begin{array}{ll} 0, &\mbox{ se log(z) < 1, ou seja, z < e}\\ \frac{\log(z)-1}{2} &\mbox{ se } 1 \leq \log(z) \leq 3, \mbox{ ou seja}, e \leq z \leq e^3\\ 1, &\mbox{ caso contrário.} \end{array} \right. \] Obtendo a densidade de Y: \[ f_Z(z)=\frac{\partial F_Z(z)}{\partial z}=\frac{1}{2z}I_{[e,e^3]}(z) \mbox{ não conhecida no Apêndice Mood} \]

De fato, a área sob a curva é igual a 1:

Area=antiD(1/(2*z) ~ z)
Area(exp(3))-Area(exp(1))
## [1] 1

Gráficos no R:

z = seq(0,23,0.1)
fz = ifelse(z<exp(1),0,
            ifelse(z<exp(3),1/(2*z),0))
Fz = ifelse(z<exp(1),0,
            ifelse(z<exp(3),(log(z)-1)/2,1))
data = data.frame(z=z[-length(z)],fz=fz[-length(z)], zend=z[-1], fzend=fz[-length(z)],Fz=Fz[-length(z)])

a=ggplot(data, aes( x=z, y=fz ,xend=zend,yend=fzend)) +
geom_segment(size=1.2,color="orange")+
geom_point( aes( x=exp(1), y=0 ), shape=1, size=3,color="orange")+
geom_point( aes( x=exp(3), y=0 ), shape=1, size=3,color="orange") +
labs(x="x",y="f(x)",title="densidade de Z")

b=ggplot(data, aes( x=z, y=Fz)) +
  geom_line(size=1.3,color="orange")+
  labs(x="z",y="F(z)",title="densidade acumulada de Z")

grid.arrange(a, b, ncol = 2, nrow = 1)

Exemplo: Seja \(X\) uma variável aleatória contínua com densidade \(f\). Obtenha a densidade de uma variável aleatória \(Z=X^2\). Pelo método da acumulada: \[ \begin{array}{lll} P(Z<z)=P(X^2<z)=P(-\sqrt{z}<X<\sqrt{z})=P(X<\sqrt{z})-P(X<-\sqrt{z})\\ \Rightarrow F_Z(z) = F_X(\sqrt{z})-F_X(-\sqrt{z})\\ f_Z(z)=\frac{\partial F_Z(z)}{\partial z}=\frac{\partial F_X(\sqrt{z})}{\partial z}-\frac{\partial F_X(-\sqrt{z})}{\partial z}\\ =f_X(\sqrt{z}).\frac{\partial (\sqrt{z})}{\partial z}-f_X(-\sqrt{z}).\frac{\partial (-\sqrt{z})}{\partial z}\\ = f_X(\sqrt{z}).\frac{1}{2\sqrt{z}}+f_X(-\sqrt{z}).\frac{1}{2\sqrt{z}}\\ = \frac{1}{2\sqrt{z}} \left[f_X(\sqrt{z})+f_X(-\sqrt{z})\right] \end{array} \]

Exemplo prático considerando \(X \sim Gamma(2,4)\) A área sob a curva de Z é igual a 1:

a=2
b=4
f=function(z){
  fx1=dgamma(sqrt(z),shape=a,scale=b)
  fx2=dgamma(-sqrt(z),shape=a,scale=b)
  1/(2*sqrt(z))*(fx1+fx2)
}
Area=integrate(f, lower = 0, upper = Inf)
Area
## 1 with absolute error < 4.5e-05
a=2
b=4
x = seq(0.01,25,0.1)
z = x^2
fx = dgamma(x,shape=a,scale=b)
fx1=dgamma(sqrt(z),shape=a,scale=b)
fx2=dgamma(-sqrt(z),shape=a,scale=b)
fz = 1/(2*sqrt(z))*(fx1+fx2)

dados=data.frame(x,z,fx,fz)
a=ggplot(dados, aes( x=x, y=fx)) +
geom_line(size=1.2,color="orange") +
labs(x="x",y="f(x)",title="densidade de X ~ Gamma(2,4)")

b=ggplot(dados, aes( x=z, y=fz)) +
geom_line(size=1.2,color="orange") +
labs(x="x",y="f(x)",title="densidade de Z=X^2")

grid.arrange(a, b, ncol = 2, nrow = 1)

Exemplo prático considerando \(X \sim U(-3,-1)\) A área sob a curva de Z é igual a 1: considere integração numérica pela praticidade!

a=-3
b=-1
f=function(z){
  fz1=dunif(sqrt(z),min=a,max=b)
  fz2=dunif(-sqrt(z),min=a,max=b)
  1/(2*sqrt(z))*(fz1+fz2)
}
Area=integrate(f, lower = 0, upper = Inf)
Area
## 1 with absolute error < 1.2e-06
a=-3
b=-1
x = seq(-4,0,0.05)
z = seq(0,10,0.05)
fx = dunif(x,min=a,max=b)
fz1=dunif(sqrt(z),min=a,max=b)
fz2=dunif(-sqrt(z),min=a,max=b)
fz = 1/(2*sqrt(z))*(fz1+fz2)

data1 = data.frame(x=x[-length(x)],fx=fx[-length(x)], xend=x[-1], fxend=fx[-length(x)])
data2 = data.frame(z=z[-length(z)],fz=fz[-length(z)], zend=z[-1], fzend=fz[-length(z)])
  
a=ggplot(data1, aes( x=x, y=fx,xend=xend,yend=fxend)) +
geom_segment(size=1.2,color="orange")+
geom_point( aes( x=-3, y=0 ), shape=1, size=3,color="orange")+
geom_point( aes( x=-1, y=0), shape=1, size=3,color="orange") +
labs(x="x",y="f(x)",title="densidade de X ~ U(-3,-1)")

b=ggplot(data2, aes( x=z, y=fz,xend=zend,yend=fzend)) +
geom_segment(size=1.2,color="orange")+
geom_point( aes( x=1, y=0 ), shape=1, size=3,color="orange")+
geom_point( aes( x=9, y=0 ), shape=1, size=3,color="orange") +
labs(x="z",y="f(z)",title="densidade de Z=X^2")

grid.arrange(a, b, ncol = 2, nrow = 1)
## Warning: Removed 1 rows containing missing values (geom_segment).

Exemplo: Seja \(W\) uma variável aleatória contínua com densidade Normal \(N(0,\sigma^2)\). Obtenha a densidade da variável aleatória \(W=X^2\).

Solução: Vemos que a variável \(X^2\) assume valores positivos:

Gráficos no R para \(N(0,4)\):

media=0
desvio=2

x = seq(-10,10,0.1)
fx = dnorm(x,mean=media,sd=desvio)
Fx = pnorm(x,mean=media,sd=desvio)

dados=data.frame(x,fx,Fx)
a=ggplot(dados, aes( x=x, y=fx)) +
geom_line(size=1.2,color="orange") +
labs(x="x",y="f(x)",title="densidade de X ~ N(0,4)")

b=ggplot(dados, aes( x=x, y=Fx)) +
geom_line(size=1.2,color="orange") +
labs(x="x",y="f(x)",title="densidade acumulada de X ~ N(0,4)")

grid.arrange(a, b, ncol = 2, nrow = 1)

Pelo método da acumulada: \[ P(W<w)=P(X^2<w)=P(-\sqrt{w}<X<\sqrt{w})=P(X<\sqrt{w})-P(X<\sqrt{w})\\ \Rightarrow F_W(w) = F_X(\sqrt{w})-F_X(-\sqrt{w})\\ \mbox{ lembrando que a acumulada da normal não tem forma fechada! } \]

Mesmo assim, podemos obter a densidade de W - e verificamos que W não pode assumir valores nulos: \[ \begin{array}{ll} f_W(w)&=\frac{\partial F_W(w)}{\partial w}\\ &=\frac{\partial F_X(\sqrt{w})}{\partial w}-\frac{\partial F_X(-\sqrt{w})}{\partial w}\\ &=f_X(\sqrt{w}).\frac{\partial (\sqrt{w})}{\partial w}-f_X(-\sqrt{w}).\frac{\partial (-\sqrt{w})}{\partial w} \mbox{ e com a simetria da normal: }\\ &=f_X(\sqrt{w}).\left(\frac{1}{2\sqrt{w}}+ \frac{1}{2\sqrt{w}} \right)\\ &=\frac{1}{\sqrt{2\pi} \sigma \sqrt{w}}.\exp\left[-\frac{1}{2\sigma^2}w\right]\\ &\mbox{ não conhecida no apêndice Mood, exceto para }\sigma^2=1 \\ &\mbox{ onde temos a distribuição} X^2 \mbox{ com 1 grau de liberdade!} \end{array} \]

De fato, a área sob a curva é igual a 1:

  • Neste caso utilizamos a função integrate para integração numérica (não deu certo com antiD que computa integrais exatas)
sigma=2
f=function(w){
  1/(sqrt(2*pi*w)*sigma)*exp(-1/(2*sigma^2)*w)
}
Area=integrate(f, lower = 0, upper = Inf)
Area
## 1 with absolute error < 5.2e-05

Gráficos no R considerando \(\sigma^2=4\):

media=0
desvio=2

w = seq(0.01,10,0.1)
fw = 1/(sqrt(2*pi*w)*desvio)*exp(-1/(2*desvio^2)*w)
Fw = pnorm(sqrt(w),mean=media,sd=desvio)-pnorm(-sqrt(w),mean=media,sd=desvio)

dados=data.frame(w,fw,Fw)
a=ggplot(dados, aes( x=w, y=fw)) +
geom_line(size=1.2,color="orange") +
labs(x="w",y="f(w)",title="densidade de W")

b=ggplot(dados, aes( x=w, y=Fw)) +
geom_line(size=1.2,color="orange") +
labs(x="w",y="F(w)",title="densidade acumulada de W")

grid.arrange(a, b, ncol = 2, nrow = 1)

14 Transformações de variáveis - Caso unidimensional

Teorema: Seja \(\varphi\) uma função diferenciável, estritamente crescente ou estritamente decrescente em um intervalo \(I\), e sejam \(\varphi(I)\) o contradomínio de \(\varphi\) e \(\varphi^{-1}\) a função inversa de \(\varphi\). Seja \(X\) uma variável aleatória contínua de densidade \(f\) tal que \(f(x) = 0\) para \(x\notin I\). Então \(Y = \varphi(X)\) tem densidade \(g\) dada por \(g(y)=0\) para \(y\notin \varphi(I)\) e \[ g(y) = f(\varphi^{-1}(y))\left|\frac{d}{dy}\varphi^{-1}(y)\right|I_{\mathscr{D}}(y), \mathscr{D} \quad \mbox{é o conjunto domínio de Y}. \]

ou de forma equivalente: \[ g(y) = f(x)\left|\frac{dx}{dy}\right|I_{\mathscr{D}}(y), \mathscr{D} \quad \mbox{é o conjunto domínio de Y} \quad \mbox{e} \quad x = \varphi^{-1}(y). \]

Exemplo: Seja \(X\) uma variável aleatória tendo uma densidade exponencial de parâmetro \(\lambda\). Obtenha a densidade de \(Z = X^{1/\beta},\) onde \(\beta > 0.\)

Solução: Vemos que a variável \(Z\) assume somente valores positivos:

x = seq(0.1,2,0.3)
beta1=2
beta2=1/2
z1 = x^(1/beta1)
z2 = x^(1/beta2)
data.frame(x,z1,z2) %>%
`colnames<-`(c("x","z1=x^{1/beta} sendo beta=2","z2=x^{1/beta} sendo beta =1/2"))%>%
datatable(cap="Alguns valores que X e Z assumem")

Pelo método do Jacobiano: \[ \begin{array}{llll} & w=x^{\frac{1}{\beta}} \Rightarrow x=w^\beta \Rightarrow \left|\frac{dx}{dw}\right|=\beta w^{\beta-1}\\ f_W(w)& =f_X(x)\left|\frac{dx}{dw}\right|.I_{(0,\infty)}(w) \mbox{ , ou seja,}\\ & =f_X(w^\beta)\beta w^{\beta-1}.I_{(0,\infty)}(w) \\ & \mbox{ lembre-se que a função é de w então tiramos os termos x da fórmula!}\\ & = \lambda \beta w^{\beta-1} \exp(-\lambda w^{\beta}) .I_{(0,\infty)}(w) \\ &\mbox{ que corresponde a Weibull no apêndice Mood!}\\ &\therefore W \sim Weibull (\lambda,\beta) \end{array} \]

Gráficos no R considerando \(\lambda=2\) e \(\beta=2\):

lambda=2
beta=2

x= seq(0.001,2,0.01)
w= seq(0.001,2,0.01)
fx = dexp(x,rate=lambda)
fw = dweibull(w,scale=1/lambda,shape=beta)

dados=data.frame(x,w,fx,fw)
a=ggplot(dados, aes( x=x, y=fx)) +
geom_line(size=1.2,color="orange") +
labs(x="x",y="f(x)",title="densidade de X: Exp(2)")

b=ggplot(dados, aes( x=w, y=fw)) +
geom_line(size=1.2,color="orange") +
labs(x="w",y="fw",title="densidade de W: Weibull(2,2)")

grid.arrange(a, b, ncol = 2, nrow = 1)

15 Transformações de variáveis - Caso bidimensional

Sejam \(X_1\) e \(X_2\) variáveis aleatórias contínuas com função densidade de probabilidade conjunta \(f_{X_1,X_2}(x_1,x_2)\). Além disso, sejam \(Y_1=g_1(x_1,x_2)\) e \(Y_2=g_2(x_1,x_2)\), tais que \(g_1\) e \(g_2\) satisfaçam as seguintes condições:

  • As equações \(y_1=g_1(x_1,x_2)\) e \(y_2=g_2(x_1,x_2)\) podem ser unicamente solucionadas para \(x_1\) e \(x_2\) em termos de \(y_1\) e \(y_2\), com soluções dadas por, \(x_1 = g_1^{-1}(y_1,y_2)\) e \(x_2 = g_2^{-1}(y_1,y_2)\).
  • As derivadas parciais de \(x_1 = g_1^{-1}(y_1,y_2)\) e \(x_2 = g_2^{-1}(y_1,y_2)\) são contínuas em todos os pontos \((y_1,y_2)\) e são tais que o determinante \(2\times 2\) é dado por \[ J(y_1,y_2) = \left| \begin{array} {ll} \frac{\partial x_1}{\partial y_1} \frac{\partial x_1}{\partial y_2} \\ \frac{\partial x_2}{\partial y_1} \frac{\partial x_2}{\partial y_2} \end{array} \right| \equiv \frac{\partial x_1}{\partial y_1}\frac{\partial x_2}{\partial y_2} - \frac{\partial x_1}{\partial y_2}\frac{\partial x_2}{\partial y_1} \neq 0. \]

Nessas condições, pode-se mostrar que as variáveis aleatórias \(Y_1\) e \(Y_2\) são conjuntamente contínuas com função densidade conjunta dada por \[ f_{Y_1,Y_2}(y_1,y_2) = f_{X_1,X_2}(x_1,x_2)\left|J(y_1,y_2)\right|I_{\mathscr{D}}(y_1,y_2), \] em que \(x_1 = g_1^{-1}(y_1,y_2)\), \(x_2 = g_2^{-1}(y_1,y_2)\) e \(\mathscr{D}\) é o domínio de \((Y_1,Y_2)\).\

Exemplo:Sejam \(X_1\) e \(X_2\) variáveis aleatórias conjuntamente contínuas com função densidade de probabilidade \(f_{X_1,X_2}\). Sejam \(Y_1 = X_1+X_2\) e \(Y_2 = X_1-X_2\). Determine a função densidade conjunta de \(Y_1\) e \(Y_2\) em termos de \(f_{X_1,X_2}\).

Solução: Sejam \(y_1 =g_1(x_1,x_2) = x_1+x_2\) e \(y_2 = g_2(x_1,x_2) = x_1-x_2\). Então, \(x_1 = (y_1+y_2)/2\) e \(x_2 = (y_1-y_2)/2\), essas soluções são únicas e o determinante do jacobiano será dado por: \[ J(y_1,y_2) = \left| \begin{array} {lll} \frac{1}{2} & \frac{1}{2} \\ \frac{1}{2} & -\frac{1}{2} \end{array} right| = -\frac{1}{2}. \] Substituindo na equação () os valores de \(x_1\), \(x_2\) e do módulo do jacobiano temos que a densidade desejada é dada por \[ f_{Y_1,Y_2}(y_1,y_2) = \frac{1}{2}f_{X_1,X_2}\left(\frac{y_1+y_2}{2},\frac{y_1-y_2}{2}\right)I_{\mathscr{D}}(y_1,y_2). \] a) Se \(X_1\) e \(X_2\) são variáveis aleatórias exponenciais independentes com respectivos parâmetros \(\lambda_1\) e \(\lambda_2\), então

\[ f_{Y_1,Y_2}(y_1,y_2) = \left\{ \begin{array} {ll} \frac{\lambda_1\lambda_2}{2}\exp\left\{-\lambda_1\left(\frac{y_1+y_2}{2}\right) -\lambda_2\left(\frac{y_1-y_2}{2}\right)\right\}, 0<y_1<\infty \mbox{ e } -\infty<y_2<y_1;\\ 0, \mbox{ caso contrário.} \end{array} \right. \] b) Se \(X_1\) e \(X_2\) são variáveis aleatórias uniformes (0,1), qual a densidade conjunta de \((Y_1,Y_2)\)?

16 Transformações de Variáveis - Caso \(n\)-dimensional

Quando a função densidade conjunta das \(n\) variáveis aleatórias \(X_1, X_2, \ldots, X_n\) é dada e queremos calcular a função densidade conjunta de \(Y_1, Y_2, \ldots, Y_n\), onde \[Y_1 = g_1(X_1,\ldots,X_n), \quad Y_2 = g_2(X_1,\ldots,X_n), \ldots, Y_n = g_n(X_1,\ldots,X_n),\] a abordagem é a mesma. Supomos que as equações \(y_1 = g_1(x_1,x_2,\ldots,x_n), y_2 = g_2(x_1,x_2,\ldots,x_n), \ldots, y_n = g_n(x_1,x_2,\ldots,x_n)\) tenham soluções únicas \(x_1 = g_1^{-1}(y_1,y_2,\ldots,y_n), \ldots, x_n = g_n^{-1}(y_1,y_2,\ldots,y_n)\) cuja função densidade conjunta das variáveis aleatórias \(Y_i\) é dada por \[ f_{Y_1,\ldots,Y_n}(y_1,\ldots,y_n) = f_{X_1,\ldots,X_n}(x_1,\ldots,x_n)\left|J(y_1,\ldots,y_n)\right|I_{\mathscr{D}}(y_1,\ldots,y_n), \] em que \(x_i = g_i^{-1}(y_1,\ldots,y_n), i = 1,2,\ldots,n\) e

\[ J(y_1,\ldots,y_n) = \left| \begin{array}{llll} \frac{\partial x_1}{\partial y_1} \frac{\partial x_1}{\partial y_2}\ldots \frac{\partial x_1}{\partial y_n}\\ \frac{\partial x_2}{\partial y_1} \frac{\partial x_2}{\partial y_2}\ldots \frac{\partial x_2}{\partial y_n}\\ \vdots \\ \vdots \ldots\\ \frac{\partial x_n}{\partial y_1} \frac{\partial x_n}{\partial y_2}\ldots \frac{\partial x_n}{\partial y_n} \end{array} \right| \neq 0. \]

Exemplo: Considere o vetor aleatório \(\textbf{X}\) com densidade \[f_\textbf{X}(\textbf{x}) = \lambda^3\mbox{e}^{-\lambda(x_1+x_2+x_3)}I_{(0,\infty)}(x_1)I_{(0,\infty)}(x_2)I_{(0,\infty)}(x_3), \lambda>0.\] Qual a densidade conjunta de \(\textbf{Y} = (Y_1,Y_2,Y_3)\) tal que \[ \begin{array}{lll} Y_1 &= X_1;\\ Y_2 &= X_1+X_2;\\ Y_3 &= X_1+X_2+X_3. \end{array} \]