#install.packages("gtools")
#install.packages("ggforce")
#install.packages("mosaicCalc")
require(gtools)
require(tidyverse)
require(ggforce)
options(kableExtra.latex.load_packages = TRUE)
require(kableExtra)
require(mosaicCalc)
require(gridExtra)
require(numDeriv)
Encontramos na natureza dois tipos de fenômenos: determinísticos e aleatórios.
Referências: - Milone, G., Estatística Geral e Aplicada. Ed. Cengage Learning.}
No nosso dia-a-dia, em maior ou menor grau, nos deparamos com o acaso. Por exemplo, da afirmação “é provável que meu time ganhe a partida hoje” pode resultar em:
Como vimos, o resultado final depende do acaso. Fenômenos como esse são chamados fenômenos aleatórios ou experimentos aleatórios.
Definição: Experimentos ou fenômenos aleatórios são aqueles que, mesmo repetidos várias vezes sob condições semelhantes, apresentam resultados imprevisíveis.
Referências: - Morettin, L.G., Estatística Básica - Probabilidade e Inferência. Ed. Pearson.
Podemos considerar os experimentos aleatórios como fenômenos produzidos pelo homem.
Lançamento de uma moeda
set.seed(01022021)
moeda=c("cara","coroa")
sample(moeda,size=1)
## [1] "cara"
$$
$$
dado=c("$\\color{orange}{\\fbox{1}}$", "$\\color{orange}{\\fbox{2}}$","$\\color{orange}{\\fbox{3}}$","$\\color{orange}{\\fbox{4}}$","$\\color{orange}{\\fbox{5}}$","$\\color{orange}{\\fbox{6}}$")
Omega=permutations(n=6,r=2,v=dado,repeats.allowed=TRUE)
index=sample(1:nrow(Omega),size=nrow(Omega))
Omega=Omega[index,] %>%
`colnames<-`(c("1º lançamento","2º lançamento")) %>%
t()
Omega[,1:18]%>%
data.frame() %>%
kbl(caption="Descrição do espaço amostral com 36 elementos",escape = FALSE,col.names = NULL) %>%
kable_classic(full_width = F, html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"),
full_width = F)
1º lançamento | \(\color{orange}{\fbox{4}}\) | \(\color{orange}{\fbox{4}}\) | \(\color{orange}{\fbox{6}}\) | \(\color{orange}{\fbox{6}}\) | \(\color{orange}{\fbox{2}}\) | \(\color{orange}{\fbox{2}}\) | \(\color{orange}{\fbox{2}}\) | \(\color{orange}{\fbox{3}}\) | \(\color{orange}{\fbox{3}}\) | \(\color{orange}{\fbox{3}}\) | \(\color{orange}{\fbox{1}}\) | \(\color{orange}{\fbox{1}}\) | \(\color{orange}{\fbox{3}}\) | \(\color{orange}{\fbox{3}}\) | \(\color{orange}{\fbox{5}}\) | \(\color{orange}{\fbox{6}}\) | \(\color{orange}{\fbox{6}}\) | \(\color{orange}{\fbox{4}}\) |
2º lançamento | \(\color{orange}{\fbox{6}}\) | \(\color{orange}{\fbox{4}}\) | \(\color{orange}{\fbox{4}}\) | \(\color{orange}{\fbox{6}}\) | \(\color{orange}{\fbox{3}}\) | \(\color{orange}{\fbox{6}}\) | \(\color{orange}{\fbox{2}}\) | \(\color{orange}{\fbox{6}}\) | \(\color{orange}{\fbox{4}}\) | \(\color{orange}{\fbox{3}}\) | \(\color{orange}{\fbox{5}}\) | \(\color{orange}{\fbox{2}}\) | \(\color{orange}{\fbox{2}}\) | \(\color{orange}{\fbox{5}}\) | \(\color{orange}{\fbox{5}}\) | \(\color{orange}{\fbox{1}}\) | \(\color{orange}{\fbox{3}}\) | \(\color{orange}{\fbox{2}}\) |
1º lançamento | \(\color{orange}{\fbox{1}}\) | \(\color{orange}{\fbox{2}}\) | \(\color{orange}{\fbox{4}}\) | \(\color{orange}{\fbox{6}}\) | \(\color{orange}{\fbox{2}}\) | \(\color{orange}{\fbox{4}}\) | \(\color{orange}{\fbox{4}}\) | \(\color{orange}{\fbox{5}}\) | \(\color{orange}{\fbox{5}}\) | \(\color{orange}{\fbox{2}}\) | \(\color{orange}{\fbox{5}}\) | \(\color{orange}{\fbox{6}}\) | \(\color{orange}{\fbox{5}}\) | \(\color{orange}{\fbox{1}}\) | \(\color{orange}{\fbox{3}}\) | \(\color{orange}{\fbox{5}}\) | \(\color{orange}{\fbox{1}}\) | \(\color{orange}{\fbox{1}}\) |
2º lançamento | \(\color{orange}{\fbox{4}}\) | \(\color{orange}{\fbox{4}}\) | \(\color{orange}{\fbox{1}}\) | \(\color{orange}{\fbox{5}}\) | \(\color{orange}{\fbox{1}}\) | \(\color{orange}{\fbox{3}}\) | \(\color{orange}{\fbox{5}}\) | \(\color{orange}{\fbox{6}}\) | \(\color{orange}{\fbox{4}}\) | \(\color{orange}{\fbox{5}}\) | \(\color{orange}{\fbox{2}}\) | \(\color{orange}{\fbox{2}}\) | \(\color{orange}{\fbox{3}}\) | \(\color{orange}{\fbox{1}}\) | \(\color{orange}{\fbox{1}}\) | \(\color{orange}{\fbox{1}}\) | \(\color{orange}{\fbox{6}}\) | \(\color{orange}{\fbox{3}}\) |
\[ P(X=1)=\binom{2}{1} . \left(\frac{1}{2}\right)^1. \left(1-\frac{1}{2}\right)^{2-1}=0,5 \]
set.seed(02022021)
N=1
n=2
p=0.5
x=rbinom(N,size=n,p=p)
x
## [1] 1
dbinom(x,size=n,p=p)
## [1] 0.5
cards = c(2:10, "J", "Q", "K", "A")
suits = c("$\\color{red}{\\heartsuit}$", "$\\spadesuit$", "$\\color{red}{\\diamondsuit}$", "$\\clubsuit$")
deck <- paste0(rep(cards, length(suits)), #card values
rep(suits, each = length(cards))) #suits
deck %>%
matrix(nrow=4,byrow=T) %>%
data.frame() %>%
kbl(caption="Descrição das 52 cartas do baralho",col.names = NULL,escape = FALSE) %>%
kable_classic(full_width = F, html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"),
full_width = F)
2\(\color{red}{\heartsuit}\) | 3\(\color{red}{\heartsuit}\) | 4\(\color{red}{\heartsuit}\) | 5\(\color{red}{\heartsuit}\) | 6\(\color{red}{\heartsuit}\) | 7\(\color{red}{\heartsuit}\) | 8\(\color{red}{\heartsuit}\) | 9\(\color{red}{\heartsuit}\) | 10\(\color{red}{\heartsuit}\) | J\(\color{red}{\heartsuit}\) | Q\(\color{red}{\heartsuit}\) | K\(\color{red}{\heartsuit}\) | A\(\color{red}{\heartsuit}\) |
2\(\spadesuit\) | 3\(\spadesuit\) | 4\(\spadesuit\) | 5\(\spadesuit\) | 6\(\spadesuit\) | 7\(\spadesuit\) | 8\(\spadesuit\) | 9\(\spadesuit\) | 10\(\spadesuit\) | J\(\spadesuit\) | Q\(\spadesuit\) | K\(\spadesuit\) | A\(\spadesuit\) |
2\(\color{red}{\diamondsuit}\) | 3\(\color{red}{\diamondsuit}\) | 4\(\color{red}{\diamondsuit}\) | 5\(\color{red}{\diamondsuit}\) | 6\(\color{red}{\diamondsuit}\) | 7\(\color{red}{\diamondsuit}\) | 8\(\color{red}{\diamondsuit}\) | 9\(\color{red}{\diamondsuit}\) | 10\(\color{red}{\diamondsuit}\) | J\(\color{red}{\diamondsuit}\) | Q\(\color{red}{\diamondsuit}\) | K\(\color{red}{\diamondsuit}\) | A\(\color{red}{\diamondsuit}\) |
2\(\clubsuit\) | 3\(\clubsuit\) | 4\(\clubsuit\) | 5\(\clubsuit\) | 6\(\clubsuit\) | 7\(\clubsuit\) | 8\(\clubsuit\) | 9\(\clubsuit\) | 10\(\clubsuit\) | J\(\clubsuit\) | Q\(\clubsuit\) | K\(\clubsuit\) | A\(\clubsuit\) |
Omega=permutations(n=52,r=2,v=deck,repeats.allowed=FALSE)
paste0("número de elementos de Omega =", nrow(Omega))
## [1] "número de elementos de Omega =2652"
index = sample(1:nrow(Omega),5)
Omega[index,] %>%
data.frame() %>%
`colnames<-`(c("1ª carta","2ª carta")) %>%
t() %>%
kbl(caption="Descrição de apenas 5 possibilidades do total de 2652 possibilidades do espaço amostral",escape = FALSE) %>%
kable_classic(full_width = F, html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"),
full_width = F)
1ª carta | Q\(\color{red}{\diamondsuit}\) | 4\(\color{red}{\diamondsuit}\) | A\(\color{red}{\diamondsuit}\) | A\(\color{red}{\heartsuit}\) | 7\(\spadesuit\) |
2ª carta | 5\(\color{red}{\heartsuit}\) | A\(\color{red}{\diamondsuit}\) | 4\(\color{red}{\heartsuit}\) | A\(\clubsuit\) | 4\(\clubsuit\) |
n=10
media=24
t=rexp(n,1/media)
t
## [1] 58.0517916 76.8045999 15.6228992 20.9483635 47.5138641 0.1130182
## [7] 12.8369202 25.7037413 79.8827557 42.5714052
Um dos conceitos matemáticos fundamentais utilizados no estudo das probabilidades é o de conjunto. Um conjunto é uma coleção de objetos ou itens que possuem pelo menos uma característica em comum. É importante definir cuidadosamente o que constitui o conjunto em que estamos interessados, a fim de podermos decidir se determinado elemento é ou não membro do conjunto.
A probabilidade só tem sentido no contexto de espaço amostral, que é o conjunto de todos os resultados possíveis de um ``experimento’’. O termo “experimento” sugere a incerteza do resultado antes de fazermos as observações. Ao conjunto desses resultados possíveis damos o nome de espaço amostral ou conjunto universo, representado por \(\Omega\).
Exemplos
Lançamento de uma moeda; \[ \mbox{Resultados possíveis} \left\{ \begin{array}{cl} cara (c)\\ coroa (k) \end{array} \right. \Rightarrow \Omega = \left\{c, k\right\} \]
Lançamento de um dado \[ \mbox{Resultados possíveis: } 1, 2, 3, 4, 5, 6\Rightarrow \Omega = \left\{1, 2, 3, 4, 5, 6\right\} \]
Chamamos de evento qualquer subconjunto do espaço amostral \(\Omega\) de um experimento aleatório.
Exemplo bolas de uma urna
Três bolas são retiradas, sem reposição, de um urna que tem três bolas de cada uma das cores azul, vermelha, preta e cinza. Dê um espaço amostral para esse experimento e liste os eventos:
Solução prática no R:
Omega=permutations(n=4,r=3,v=c("$\\color{blue}{\\bigotimes}$","$\\color{red}{\\bigotimes}$","$\\color{black}{\\bigotimes}$","$\\color{gray}{\\bigotimes}$"),repeats.allowed=TRUE) %>%
data.frame() %>%
`colnames<-`(c("bola_I","bola_II","bola_III")) %>%
mutate(
total_A=ifelse(bola_I=="$\\color{blue}{\\bigotimes}$",1,0)+ifelse(bola_II=="$\\color{blue}{\\bigotimes}$",1,0)+ifelse(bola_III=="$\\color{blue}{\\bigotimes}$",1,0),
total_V=ifelse(bola_I=="$\\color{red}{\\bigotimes}$",1,0)+ifelse(bola_II=="$\\color{red}{\\bigotimes}$",1,0)+ifelse(bola_III=="$\\color{red}{\\bigotimes}$",1,0),
total_P=ifelse(bola_I=="$\\color{black}{\\bigotimes}$",1,0)+ifelse(bola_II=="$\\color{black}{\\bigotimes}$",1,0)+ifelse(bola_III=="$\\color{black}{\\bigotimes}$",1,0),
total_C=ifelse(bola_I=="$\\color{gray}{\\bigotimes}$",1,0)+ifelse(bola_II=="$\\color{gray}{\\bigotimes}$",1,0)+ifelse(bola_III=="$\\color{gray}{\\bigotimes}$",1,0))
index = sample(1:nrow(Omega),12)
Omega[index,] %>%
select(-c(total_A,total_V,total_P,total_C)) %>%
t() %>%
kbl(caption="Descrição de uma amostra de 12 arranjos do total de 64 arranjos distintos do espaço amostral",col.names = NULL,escape = FALSE) %>%
kable_classic(full_width = F, html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"),
full_width = F)
bola_I | \(\color{red}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{black}{\bigotimes}\) |
bola_II | \(\color{red}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{black}{\bigotimes}\) |
bola_III | \(\color{red}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) |
Omega %>%
filter(total_V==3) %>%
select(-c(total_A,total_V,total_P,total_C)) %>%
t() %>%
kbl(caption="Descrição do evento A com apenas 1 arranjo",col.names = NULL,escape = FALSE) %>%
kable_classic(full_width = F, html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"),
full_width = F)
bola_I | \(\color{red}{\bigotimes}\) |
bola_II | \(\color{red}{\bigotimes}\) |
bola_III | \(\color{red}{\bigotimes}\) |
Omega %>%
filter(total_A==1 & total_V==1 & total_P==1) %>%
select(-c(total_A,total_V,total_P,total_C)) %>%
t() %>%
kbl(caption="Descrição do evento B com 6 arranjos distintos",col.names = NULL,escape = FALSE) %>%
kable_classic(full_width = F, html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"),
full_width = F)
bola_I | \(\color{black}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{red}{\bigotimes}\) |
bola_II | \(\color{blue}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) |
bola_III | \(\color{red}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{black}{\bigotimes}\) |
A = Omega %>%
filter(bola_I!=bola_II & bola_II!=bola_III & bola_I!=bola_III) %>%
select(-c(total_A,total_V,total_P,total_C)) %>%
t()
A[,1:12]%>%
kbl(caption="Descrição do evento C com 24 arranjos distintos",col.names = NULL,escape = FALSE) %>%
kable_classic(full_width = F, html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"),
full_width = F)
bola_I | \(\color{black}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) |
bola_II | \(\color{blue}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{red}{\bigotimes}\) |
bola_III | \(\color{gray}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) |
bola_I | \(\color{gray}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{red}{\bigotimes}\) |
bola_II | \(\color{black}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) |
bola_III | \(\color{blue}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{red}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{gray}{\bigotimes}\) | \(\color{black}{\bigotimes}\) | \(\color{blue}{\bigotimes}\) |
Solução com notação de linguagem de conjuntos: Vamos denotar por A; V; P e C as cores azul, vermelha, preta e cinza, respectivamente.
\[ \Omega = \left\{(x_1; x_2; x_3): x_i = \mbox{A};\mbox{V};\mbox{P};\mbox{C}; i = 1;2;3 \right\}. \] Os eventos são:
\[ \begin{array}{llllll} \mbox{A} &=& \{(\mbox{V},\mbox{V},\mbox{V} )\};\\ \mbox{B} &=& \{(\mbox{P},\mbox{A},\mbox{V}); (\mbox{P},\mbox{V},\mbox{A}); (\mbox{A},\mbox{P},\mbox{V}); (\mbox{A},\mbox{V},\mbox{P}); (\mbox{V},\mbox{P},\mbox{A}); (\mbox{V},\mbox{A},\mbox{P})\};\\ \mbox{C} &=& \{(\mbox{P};\mbox{A};\mbox{C}); (\mbox{P},\mbox{A},\mbox{V}); (\mbox{P},\mbox{C},\mbox{A}); (\mbox{P},\mbox{C},\mbox{V}); (\mbox{P},\mbox{V},\mbox{A}); (\mbox{P},\mbox{V},\mbox{C});\\ &&(\mbox{A},\mbox{P},\mbox{C}); (\mbox{A},\mbox{P},\mbox{V}); (\mbox{A},\mbox{C},\mbox{P}); (\mbox{A},\mbox{C},\mbox{V}); (\mbox{A},\mbox{V},\mbox{P}); (\mbox{A},\mbox{V},\mbox{C});\\ &&(\mbox{C},\mbox{P},\mbox{A}); (\mbox{C},\mbox{P},\mbox{V}); (\mbox{C},\mbox{A},\mbox{P}); (\mbox{C},\mbox{A},\mbox{V}); (\mbox{C},\mbox{V},\mbox{P}); (\mbox{C},\mbox{V},\mbox{A});\\ &&(\mbox{V},\mbox{P},\mbox{A}); (\mbox{V},\mbox{P};\mbox{C}); (\mbox{V},\mbox{A},\mbox{P}); (\mbox{V},\mbox{A},\mbox{C}); (\mbox{V},\mbox{C},\mbox{P}); (\mbox{V},\mbox{C},\mbox{A})\}\\ \mbox{D}&=& \emptyset \mbox{ (impossível termos 4 cores em 3 extrações)}. \end{array} \]
A intersecção de dois eventos \(A\) e \(B\) corresponde a ocorrência simultânea de \(A\) e \(B\) (ver Figura ). Seguindo a notação da teoria de conjuntos, a intersecção de dois eventos será representada por \(A\cap B\):
Note que: \(x \in A\cap B \Longleftrightarrow x\in A\) e \(x \in B\). Lê-se: “x pertence a A intersecção B se e somente se x pertence a A e x pertence a B.”
# DataFrame to specify circle and text positions
df.venn <- data.frame(x = c(0.866, -0.866),
y = c(-0.5, -0.5),
labels = c('B', 'C'))
ggplot(df.venn, aes(x0 = x, y0 = y, r = 1.5, fill = labels)) +
geom_circle(alpha = .3, size = 1, colour = 'grey') +
coord_fixed() +
theme_void()
Dois eventos \(A\) e \(B\) são mutuamente exclusivos quando eles não podem ocorrer simultaneamente, isto é, quando a ocorrência de um impossibilita a ocorrência do outro. Isto significa dizer que os eventos \(A\) e \(B\) não têm elementos em comum. Então, dois eventos \(A\) e \(B\) são mutuamente exclusivos quando sua intersecção é o conjunto vazio, isto é, \(A\cap B = \emptyset.\)
# DataFrame to specify circle and text positions
df.venn <- data.frame(x = c(2.5, -0.866),
y = c(-0.5, -0.5),
labels = c('B', 'C'))
ggplot(df.venn, aes(x0 = x, y0 = y, r = 1.5, fill = labels)) +
geom_circle(alpha = .3, size = 1, colour = 'grey') +
coord_fixed() +
theme_void()
Exemplo: Na extração de uma só carta, os eventos “a carta é de copas” e a “a carta é de ouros” são mutuamente exclusivos, porque uma carta não pode ser ao mesmo tempo de copas e de ouros. Já os eventos “a carta é de copas” e “a carta é uma figura” não são mutuamente exclusivos, porque algumas cartas de copas também são figuras.
O complementar de um evento \(A\), denotado por \(\bar{A}\) ou \(A^c\); é a negação de \(A\). Então, o complementar de \(A\) é formado pelos elementos que não pertencem a \(A\) (ver Figura ).
A diferença entre dois eventos \(A\) e \(B\), representada por \(A\setminus B\) é o evento formado pelos elementos do espaço amostral que pertencem a \(A\) mas não pertencem a \(B\) (ver Figura ). Note que podemos pensar em \(A\setminus B\) como o complementar de \(B\) relativo ao evento \(A\).
Note que: \(x \in A\setminus B \Longleftrightarrow x \in A\) e \(x \notin B \Longleftrightarrow x \in A \cap \bar{B}.\) *Lê-se: “x pertence a A menos B se e somente se x pertence a A e x não pertence a B se e somente se x pertence a A intersecção B complementar.” Podemos escrever o evento \(A\) utilizando a notação de diferença: \(A = (A\setminus B) \cup (A\cap B)\).
Analogamente, o evento \(B\setminus A\) é o evento formado pelos elementos do espaço amostral que pertencem a \(B\) mas não pertencem a \(A\) (ver Figura.
Definição: Dizemos que os eventos \(A_1, A_2, \cdots, A_n\) formam uma partição do espaço amostral \(\Omega\) se:
No lançamento de um dado honesto, considere os eventos:
\(A_1\): Sair face par;
\(A_2\): Sair face ímpar; Note que:
Partição do Espaço amostral
Resolução: Auxílio do R
require(DT)
## Loading required package: DT
moedas=permutations(n=2,r=3,v=c("CA","CO"),repeats.allowed=T) %>%
data.frame() %>%
`colnames<-`(c("1ª moeda","2ª moeda","3ª moeda"))
datatable(moedas,cap="Descrição do espaço amostral com 8 possibilidades",options = list(pageLength = 5,columnDefs=list(list(targets=1:3, class="dt-center"))))
moedas[moedas[,1]==moedas[,2] & moedas[,2]==moedas[,3],] %>%
datatable(cap="Descrição do evento A: faces iguais, com 2 possibilidades",
options = list(columnDefs=list(list(targets=1:3, class="dt-center"))))
moedas[moedas[,1]=="CA",] %>%
datatable(cap="Descrição do evento B: cara na 1ª moeda, com 4 possibilidades",
options = list(columnDefs=list(list(targets=1:3, class="dt-center"))))
moedas[moedas[,2]=="CO" & moedas[,3]=="CO",] %>%
datatable(cap="Descrição do evento C: coroa na 2ª e 3ª moedas, com 2 possibilidades",
options = list(columnDefs=list(list(targets=1:3, class="dt-center"))))
Resolução com notação de teoria dos conjuntos: Espaço Amostral: \[
\Omega =
\left\{
\begin{array}{ll}
\{\mbox{CA,CA,CA}\};
\{\mbox{CA,CA,CO}\};
\{\mbox{CA,CO,CA}\};\\
\{\mbox{CA,CO,CO}\};
\{\mbox{CO,CA,CA}\};
\{\mbox{CO,CA,CO}\};\\
\{\mbox{CO,CO,CA}\};
\{\mbox{CO,CO,CO}\}
\end{array}
\right\}
\Rightarrow \mbox{ 8 resultados possíveis}
\]
Resolução: Auxílio do R
require(tidyverse)
require(dplyr)
filhos=permutations(n=2,r=3,v=c("M","F"),repeats.allowed=T) %>%
data.frame() %>%
mutate(total_M=ifelse(X1=="M",1,0)+ifelse(X2=="M",1,0)+ifelse(X3=="M",1,0)) %>%
`colnames<-`(c("filho_I","filho_II","filho_III","Total_M"))
datatable(filhos,cap="Descrição do espaço amostral com 8 possibilidades",
options = list(pageLength = 5,columnDefs=list(list(targets=1:4, class="dt-center"))))
filhos %>%
filter(Total_M==2)%>%
datatable(cap="Descrição do evento A: ocorrência de exatamente dois filhos do sexo masculino, com 3 possibilidades",
options = list(columnDefs=list(list(targets=1:4, class="dt-center"))))
filhos %>%
filter(Total_M>=1)%>%
datatable(cap="Descrição do evento B: ocorrência de pelo menos um filho do sexo masculino, com 3 possibilidades",
options = list(columnDefs=list(list(targets=1:4, class="dt-center"))))
Resolução em linguagem dos conjuntos:
library(tidyverse)
library(ggforce)
# DataFrame to specify circle and text positions
data = data.frame(x = c(0, 1, -1),
y = c(-0.5, 1, 1),
tx = c(0, 1.5, -1.5),
ty = c(-1, 1.3, 1.3),
cat = c('7', '2',
'1'))
ggplot(data, aes(x0 = x , y0 = y, r = 1.5, fill = cat)) +
geom_rect(aes(xmin = -Inf, xmax = Inf, ymin = -Inf, ymax = 3), fill = "palegreen", alpha = 0.2) +
geom_circle(alpha = 0.25, size = 1, color = "black",show.legend = FALSE) +
geom_text(aes(x = tx , y = ty, label = cat), size = 7) +
annotate(geom="text", x=0, y=1.5, label="3",color="purple", size = 5) +
annotate(geom="text", x=-0.9, y=0, label="5",color="darkorange", size = 5) +
annotate(geom="text", x=0.9, y=0, label="6",color="darkgreen", size = 5) +
annotate(geom="text", x=0, y=,.5, label="4",color="blue", size = 5) +
annotate(geom="text", x=-1.2, y=2.8, label="A", size = 5) +
annotate(geom="text", x=1.2, y=2.8, label="B", size = 5) +
annotate(geom="text", x=1.2, y=-1.8, label="C", size = 5) +
annotate(geom="text", x=2.9, y=-1.8, label=expression(Omega), size = 5) +
annotate(geom="text", x=-2.9, y=-1.8, label="8", size = 5) +
theme_void()
## Warning in is.na(x): is.na() aplicado a um objeto diferente de lista ou vetor de
## tipo 'expression'
Definição: Dado um experimento aleatório, sendo \(\Omega\) o seu espaço amostral e \(P(A)\): probabilidade de um evento A, assumindo que \(\Omega\) é um conjunto equiprovável - todos os elementos de \(\Omega\) tem a mesma chance de ocorrerem - chamamos de probabilidade de um evento A (\(A \subset \Omega\)) o número real \(P(A)\), tal que: \[\begin{align} P(A) = \frac{n(A)}{n(\Omega)} = \frac{\mbox{Número de casos favoráveis (A)}}{\mbox{Número total de casos}}. \end{align}\] \end{defin} Limitações: \(\Omega\) tem que ser finito e equiprovável.
Em 1933, Kolmogorov generalizou e formalizou a definição de probabilidade através de axiomas e propriedades. Para entender melhor a formalização de Kolmogorov são apresentados alguns conceitos.
Leis de Morgan:
Definição: Uma classe \(\mathscr{A}\) de subconjuntos de \(\Omega\) é dita sobre \(\Omega\) se:
Notas:
Por indução finita, segue de \((iii)\) que \(\mathscr{A}\) é fechada por união finita, isto é, se \(A_1, A_2, \ldots, A_n \in \mathscr{A}\) então \[\cup_{i=1}^{n}A_i \in \mathscr{A};\]
De \((ii)\) e \((iii)\), seque que \(\mathscr{A}\) é fechada por intersecção finita, isto é, se \(A_1, A_2, \ldots, A_n \in \mathscr{A}\) então \[\cap_{i=1}^{n}A_i = \left[\cup_{i=1}^{n}A_i^c\right]^c \in \mathscr{A}.\]
Motivações Práticas
\begin{defin} Uma classe \(\mathscr{A}\) de subconjuntos de \(\Omega\) é dita sobre \(\Omega\) se:
Notas: De \((ii)\) e \((iii)\) segue que \(\mathscr{A}\) é fechada por intersecção enumerável, isto é, se \(A_1, A_2, \ldots \in \mathscr{A}\), então \[\cap_{i=1}^{\infty}A_i = \left[\cup_{i=1}^{\infty}A_i^c\right]^c \in \mathscr{A} \]
Tempo de vida de uma lâmpada ou dispositivo eletrônico.\
Exemplos:
Observação: Toda \(\sigma\)-álgebra é uma álgebra mas nem toda álgebra é uma \(\sigma\)-álgebra.
Definição: Uma função \(P\), definida na \(\sigma\)-álgebra \(\mathscr{A}\) de subconjuntos de \(\Omega\) que assume valores no intervalo \(\left[0,1\right]\), é uma probabilidade se satisfaz os axiomas:
O evento em que ambos, A e B, ocorrem é chamado A interseção B; portanto, a probabilidade do evento A ocorrer, dado que B ocorreu, é de: \[ P(A|B) = \frac{P(A \cap B)}{P(B)}, \quad P(B) \neq 0. \] Isso significa que a probabilidade de A ocorrer, dado que B ocorreu, é igual à probabilidade de ocorrência simultânea de A e B dividida pela probabilidade de ocorrência de B. Sempre que calculamos \(P(A|B)\), estamos essencialmente calculando \(P(A)\) em relação ao espaço amostral reduzido devido a \(B\) ter ocorrido, em lugar de faze-lo em relação ao espaço amostral original \(\Omega\).
Da expressão acima vemos que é necessário o cálculo da probabilidade do evento interseção. Exceto quando já é conhecida, esta probabilidade pode ser obtida por:
Regra do Produto \[ P(A \cap B) = P(A|B)\times P(B) \] - b) Se os eventos A e B forem , \(P(A|B) = P(A)\), logo \[ P(A \cap B) = P(A)\times P(B) \] - c) Pela , \(P(A \cap B) = \frac{n(A \cap B)}{n(\Omega)}\). - d) Para três eventos, por exemplo, pode-se escrever: \[ P(A \cap B \cap C) = P(A)\times P(B|A)\times P(C|A \cap B), \] a ordem do condicionamento pode ser invertida.
Solução: Seja X: variável aleatória que conta o número de bolas verdes em uma amostra de 2 elementos, sem reposição. Então X tem distribuição hipergeométrica: \[P(X=k)=\frac{\binom{K}{k}\binom{N-K}{n-k}}{\binom{N}{n}}\] onde \(N\) é o tamanho da urna, \(K\) é o número de bolas verdes na urna, \(n\) é o tamanho da amostra e \(k\) é o número de bolas verdes na amostra,
K=2
k=2
N=6
n=2
p=dhyper(k,K,N-K,n)
p
## [1] 0.06666667
Outro modo, com cálculos binomiais:
K=2
k=2
N=6
n=2
choose(K,k)*choose(N-K,n-k)/choose(N,n)
## [1] 0.06666667
Solução: Seja X: variável aleatória que conta o número de peças boas em uma amostra de 2 peças, sem reposição. Então X tem distribuição hipergeométrica.
de acordo com o cálculo no R:
K=8
k=2
N=12
n=2
p=dhyper(k,K,N-K,n)
p
## [1] 0.4242424
Outro modo:
K=8
k=2
N=12
n=2
choose(K,k)*choose(N-K,n-k)/choose(N,n)
## [1] 0.4242424
Auxílio do R
deck = data.frame(
numero = rep(c(2:10, "J", "Q", "K", "A"),4),
naipe = c(rep("$\\color{red}{\\heartsuit}$",13), rep("$\\color{black}{\\spadesuit}$",13), rep("$\\color{red}{\\diamondsuit}$",13), rep("$\\color{black}{\\clubsuit}$",13))) %>%
mutate(carta = paste0(numero,naipe))
A = deck %>%
filter(naipe=="$\\color{red}{\\diamondsuit}$" | naipe=="$\\color{red}{\\heartsuit}$")
A[sample(1:nrow(A),size=10),] %>%
select(-c(numero,naipe))%>%
`colnames<-`(c("somente uma carta")) %>%
t() %>%
kbl(caption="Visualizando alguns elementos de A",col.names = NULL,escape = FALSE)
somente uma carta | 7\(\color{red}{\heartsuit}\) | Q\(\color{red}{\heartsuit}\) | 3\(\color{red}{\heartsuit}\) | J\(\color{red}{\diamondsuit}\) | 8\(\color{red}{\diamondsuit}\) | 2\(\color{red}{\heartsuit}\) | K\(\color{red}{\diamondsuit}\) | 5\(\color{red}{\diamondsuit}\) | 7\(\color{red}{\diamondsuit}\) | 4\(\color{red}{\diamondsuit}\) |
paste0("numero de elementos do espaço amostral, na letra a = ",nrow(deck))
## [1] "numero de elementos do espaço amostral, na letra a = 52"
paste0("numero de elementos do evento A, na letra a = ",nrow(A))
## [1] "numero de elementos do evento A, na letra a = 26"
paste0("resultado da letra a = ",nrow(A)/nrow(deck))
## [1] "resultado da letra a = 0.5"
Omega = permutations(n=52,r=2,v=deck$carta,repeats.allowed=TRUE) %>%
data.frame() %>%
`colnames<-`(c("carta_I","carta_II"))
paste0("numero de elementos do espaço amostral, na letra b = ",nrow(Omega))
## [1] "numero de elementos do espaço amostral, na letra b = 2704"
B = Omega %>%
filter(str_detect(carta_I,"diamond")==1) %>%
filter(str_detect(carta_II,"heart")==1)
B[sample(1:nrow(B),size=10),] %>%
t() %>%
kbl(caption="Visualizando alguns elementos de B",col.names = NULL,escape = FALSE)
carta_I | K\(\color{red}{\diamondsuit}\) | 9\(\color{red}{\diamondsuit}\) | 10\(\color{red}{\diamondsuit}\) | 9\(\color{red}{\diamondsuit}\) | A\(\color{red}{\diamondsuit}\) | 8\(\color{red}{\diamondsuit}\) | 3\(\color{red}{\diamondsuit}\) | 7\(\color{red}{\diamondsuit}\) | 4\(\color{red}{\diamondsuit}\) | 10\(\color{red}{\diamondsuit}\) |
carta_II | 4\(\color{red}{\heartsuit}\) | 7\(\color{red}{\heartsuit}\) | J\(\color{red}{\heartsuit}\) | 2\(\color{red}{\heartsuit}\) | 2\(\color{red}{\heartsuit}\) | 9\(\color{red}{\heartsuit}\) | 8\(\color{red}{\heartsuit}\) | 3\(\color{red}{\heartsuit}\) | 9\(\color{red}{\heartsuit}\) | A\(\color{red}{\heartsuit}\) |
paste0("numero de elementos do evento B, na letra b = ",nrow(B))
## [1] "numero de elementos do evento B, na letra b = 169"
paste0("resultado da letra b = ",nrow(B)/nrow(Omega))
## [1] "resultado da letra b = 0.0625"
Omega = permutations(n=52,r=2,v=deck$carta,repeats.allowed=FALSE) %>%
data.frame() %>%
`colnames<-`(c("carta_I","carta_II"))
paste0("numero de elementos do espaço amostral, na letra c = ",nrow(Omega))
## [1] "numero de elementos do espaço amostral, na letra c = 2652"
C = Omega %>%
filter(str_detect(carta_I,"diamond")==1) %>%
filter(str_detect(carta_II,"heart")==1)
C[sample(1:nrow(C),size=10),] %>%
t() %>%
kbl(caption="Visualizando alguns elementos de C",col.names = NULL,escape = FALSE)
carta_I | J\(\color{red}{\diamondsuit}\) | Q\(\color{red}{\diamondsuit}\) | 2\(\color{red}{\diamondsuit}\) | 4\(\color{red}{\diamondsuit}\) | 7\(\color{red}{\diamondsuit}\) | 3\(\color{red}{\diamondsuit}\) | 8\(\color{red}{\diamondsuit}\) | 8\(\color{red}{\diamondsuit}\) | 5\(\color{red}{\diamondsuit}\) | K\(\color{red}{\diamondsuit}\) |
carta_II | K\(\color{red}{\heartsuit}\) | A\(\color{red}{\heartsuit}\) | 8\(\color{red}{\heartsuit}\) | K\(\color{red}{\heartsuit}\) | 6\(\color{red}{\heartsuit}\) | 6\(\color{red}{\heartsuit}\) | K\(\color{red}{\heartsuit}\) | 10\(\color{red}{\heartsuit}\) | 8\(\color{red}{\heartsuit}\) | 7\(\color{red}{\heartsuit}\) |
paste0("numero de elementos do evento C, na letra c = ",nrow(C))
## [1] "numero de elementos do evento C, na letra c = 169"
paste0("resultado da letra c = ",nrow(C)/nrow(Omega))
## [1] "resultado da letra c = 0.0637254901960784"
D = Omega %>%
filter(str_detect(carta_I,"diamond")==1 | str_detect(carta_II,"heart")==1)
D[sample(1:nrow(D),size=10),] %>%
t() %>%
kbl(caption="Visualizando alguns elementos de D",col.names = NULL,escape = FALSE)
carta_I | 8\(\color{red}{\diamondsuit}\) | 7\(\color{red}{\diamondsuit}\) | 9\(\color{black}{\spadesuit}\) | 9\(\color{red}{\diamondsuit}\) | 2\(\color{red}{\diamondsuit}\) | 3\(\color{red}{\diamondsuit}\) | 4\(\color{red}{\diamondsuit}\) | 3\(\color{black}{\spadesuit}\) | Q\(\color{black}{\clubsuit}\) | 5\(\color{red}{\diamondsuit}\) |
carta_II | 3\(\color{red}{\diamondsuit}\) | 3\(\color{red}{\heartsuit}\) | Q\(\color{red}{\heartsuit}\) | 6\(\color{black}{\clubsuit}\) | J\(\color{red}{\heartsuit}\) | 3\(\color{black}{\clubsuit}\) | K\(\color{black}{\clubsuit}\) | 3\(\color{red}{\heartsuit}\) | Q\(\color{red}{\heartsuit}\) | K\(\color{red}{\heartsuit}\) |
paste0("numero de elementos do evento D, na letra d = ",nrow(D))
## [1] "numero de elementos do evento D, na letra d = 1157"
paste0("resultado da letra d = ",nrow(D)/nrow(Omega))
## [1] "resultado da letra d = 0.436274509803922"
Resolução: - a) Como os eventos são disjuntos, basta somar as probabilidades: \[ \mbox{ Sejam: } \left\{ \begin{array}{ll} O: \mbox{ A carta é de ouros}\\ C: \mbox{ A carta é de copas} \end{array} \right.\\ \Rightarrow P(O \cup C) = P(O) + P(C) = \frac{13}{52}\times 2 = 50\% \]
jornais=c("A","B","C","A e B", "B e C","C e A","A, B e C")
porcentagem=c("10%","30%","5%","8%","4%","2%","1%")
dados=cbind(jornais,porcentagem)
datatable(dados,caption="Tabela 1: Resultados da Pesquisa",class = 'cell-border order-column compact hover',options = list(pageLength = 5,columnDefs=list(list(targets=1:2, class="dt-center"))))
Os jornais A e C são matutinos e B vespertino. Obtenha a probabilidade de que um modador da cidade selecionado ao acaso:
A construção de uma árvore de probabilidade fornece uma ferramenta muito útil para a solução de problemas envolvendo duas ou mais etapas. A árvore consiste em uma representação gráfica na qual diversas possibilidades são representadas, juntamente com as respectivas probabilidades condicionadas a cada situação. Isso permite, pela utilização direta da regra do produto das probabilidades, associar a cada nó terminal da árvore a respectiva probabilidade.
O uso das árvores de probabilidade ajudam e simplificam o entendimento da aplicação de dois teoremas que serão apresentados a seguir, conforme será visto nos exercícios.
Exemplo: Em certo colégio, 5% dos homens e 2% das mulheres têm mais de 1,80m de altura. Por outro lado, 60% dos estudantes são homens. Sorteando-se um estudante aleatoriamente, qual a probabilidade de:
Solução Inicial: Considere os seguintes eventos:
\(A_1\): Estudante do sexo masculino;
\(A_2\): Estudante do sexo feminino;
\(B\): Estudante com mais de 1,80m de altura;
\(B^{c}\): Estudante com menos de 1,80m de altura;
Ser mulher \((A_2)\) e ter mais de 1,80m (\(B\))? \[ P(A_2 \cap B) = 0,40 \times 0,02 = 0,008 \]
Ter mais de 1,80m? \[ \begin{array}{lll} P(B)&=& P(A_2 \cap B)+ P(A_1 \cap B)\\ P(A_1 \cap B)&=&0,60 \times 0,05 = 0,03\\ P(B)& = & 0,008 + 0,03 = 0,038 \end{array} \]
Um estudante é escolhido ao acaso e tem mais de 1,80m. Qual a probabilidade de que o estudante seja mulher? \[ P(A_2|B)=\frac{P(A_2 \cap B)}{P(B)}=\frac{0,008}{0,038}\cong 0,2105. \]
Seja \(A_1, A_2, \cdots, A_n\) uma partição e B um evento qualquer de \(\Omega\), conforme ilustrado na figura a seguir:
Então \[ P(B) = \sum_{i=1}^{n} P(A_i \cap B) = \sum_{i=1}^{n} P(A_i)P(B|A_i) \] ou \[ P(B) = P(A_1)P(B|A_1) + P(A_2)P(B|A_2) +\cdots + P(A_n)P(B|A_n) \]
Para dois eventos apenas \(A_1\) e \(A_2\), temos: \[ P(B) = P(A_1 \cap B) + P(A_2 \cap B) = P(A_1)P(B|A_1) + P(A_2)P(B|A_2) \]
Nas mesmas condições do teorema anterior: \[ P(A_j|B) = \frac{P(A_j).P(B|A_j)}{\sum_{i=1}^{n} P(A_i)P(B|A_i)}, \quad j = 1, 2,\cdots, n. \] Esse resultado consegue-se facilmente do teorema anterior e demais propriedades. Observe que o denominador de () é a própria \(P(B)\) calculada pelo teorema da probabilidade total.
Para dois eventos apenas \(A_1\) e \(A_2\), temos: \[ P(A_1|B) = \frac{P(A_1).P(B|A_1)}{P(A_1)P(B|A_1) + P(A_2)P(B|A_2) }, \]
Exercícios
Três máquinas, A, B e C produzem respectivamente 40%, 50% e 10% do total de peças de uma fábrica. As porcentagens de peças defeituosas nas respectivas máquinas são 3%, 5% e 2%. Uma peça é sorteada ao acaso e verifica-se que é defeituosa. Qual a probabilidade de que a peça tenha vindo da máquina B? E da máquina A? Resp: B: $\(0,641; A:\)$0,31.\
Há apenas dois modos de Genésio ir para Genebra participar de um congresso: Avião ou Navio. A probabilidade de Genésio ir de navio é de 40% e de ir de avião 60%. Se ele for de navio, a probabilidade de chegar ao congresso com dois dias de atraso é de 8,5%. Se ele for de avião a probabilidade cai para 1%. Sabe-se que Genésio chegou com dois dias de atraso para participar do congresso em Genebra. A probabilidade de ele ter ido de avião é: Resp: 0,15.
Sejam A e B dois eventos em um dado espaço amostral, tais que \(P(A) = 0,2\), \(P(B) = p\), \(P(A \cup B) = 0,5\), \(P(A \cap B) = 0,1\). Determine o valor de \(p\).
Se \(P(A)\) = 1/2 e \(P(B)\) = 1/4 e A e B são eventos mutuamente exclusivos, calcule:\
Um geólogo diz que existe uma probabilidade 0,8 de ter petróleo numa certa região, além disso se nessa terra existe petróleo a probabilidade na primeira perfuração de sair petróleo é 0,5. Qual é a probabilidade de ter petróleo se na primeira perfuração não se encontrou petróleo?
Carlos chega atrasado à universidade 25% das vezes, e esquece o material da aula 20% das vezes. Admitindo que essas ocorrências sejam independentes, determine a probabilidade de Carlos:
Uma pessoa é escolhida ao acaso. Pergunta-se: - a) qual é a probabilidade de ser homem? - b) qual é probabilidade de ser adulto? - c) qual é probabilidade de ser menor e ser mulher? - d) sabendo-se que a pessoa escolhida é adulto, qual a probabilidade de ser homem? - e) dado que a escolhida é mulher, qual a probabilidade de ser menor?
Um sistema automático de alarme contra incêndio utiliza três células sensíveis ao calor que agem independentemente uma das outras. Cada célula entra em funcionamento com probabilidade 0,8 quando a temperatura atinge 60°C. Se pelo menos uma das células entrar em funcionamento, o alarme soa. Calcular a probabilidade do alarme soar quando a temperatura atingir 60°.
Carlos diariamente almoça um prato de sopa no mesmo restaurante. A sopa é feita de forma aleatória por um dos três cozinheiros que lá trabalham: 40% das vezes a sopa é feita por João; 40% das vezes por José, e 20% das vezes por Maria. João salga demais a sopa 10% das vezes; José o faz em 5% das vezes, e Maria 20% das vezes. Como de costume, um dia qualquer Carlos pede a sopa e, ao experimentá-la, verifica que está salgada demais. Qual a probabilidade de que essa sopa tenha sido feita por José?
André está realizando um teste de múltipla escolha, em que cada questão apresenta 5 alternativas, sendo uma e apenas uma correta. Se André sabe resolver a questão, ele marca a resposta certa. Se ele não sabe, ele marca aleatoriamente uma das alternativas. André sabe 60% das questões do teste.
Um meteorologista acerta 80% dos dias em que chove e 90% dos dias que faz bom tempo. Chove em 10% dos dias. Tendo havido previsão de chuva, qual a probabilidade de chover?
Dados dois eventos A e B associados a um mesmo espaço amostral mostre que \[ P(A^c \cap B^c) = 1 - P(A) - P(B) + P(A \cap B) \]
Dados dois eventos A e B associados a um mesmo espaço amostral e \(P\) uma probabilidade definida nos eventos de \(\Omega\), então: \[P\{(A \cap B^c) \cup (A^c \cap B)\} = P(A) + P(B) - 2P(A \cap B)\].
Uma mensagem é codificada em código binário, consistindo de dois símbolos: (zero) e (um). As probabilidades de transmissão dos 2 símbolos são 0,45 e 0,55 respectivamente. No canal os símbolos são distorcidos em com probabilidade 0,2 e os símbolos são distorcidos em com probabilidade 0,1. Ache a probabilidade de que tendo recebido:
dado=seq(1,6,1)
Omega=permutations(n=6,r=2,v=dado,repeats.allowed=TRUE) %>%
data.frame() %>%
`colnames<-`(c("lançamento_I","lançamento_II"))
B = Omega %>%
filter(lançamento_I+lançamento_II==7)
datatable(B,cap="Descrição do evento B: soma igual a 7, com 6 elementos",options = list(pageLength = 5,columnDefs=list(list(targets=1:2, class="dt-center"))))
AB = Omega %>%
filter(lançamento_I+lançamento_II==7) %>%
filter(lançamento_I==2)
datatable(AB,cap="Descrição do evento A intersecção B: primeiro lançamento igual a 2 e soma igual a 7",options = list(columnDefs=list(list(targets=1:2, class="dt-center"))))
data.frame(
eventos = c("soma igual a 7","1º lançamento igual a 2 e soma igual a 7","1º lançamento igual a 2 dado que a soma é igual a 7"),
notação = c("B","$A \\cap B$", "$A | B$"),
probabilidade = c("P(B)","$P(A \\cap B)$", "$P(A | B)$"),
cálculo = c("$\\frac{n_B}{n_{\\Omega}}$","$\\frac{n_{A\\cap B}}{n_{\\Omega}}$", "$\\frac{n_{A\\cap B}}{n_{B}}$"),
resultado = c(nrow(B)/nrow(Omega),nrow(AB)/nrow(Omega),nrow(AB)/nrow(B))) %>%
kbl(caption="Solução do exercício",escape = FALSE) %>%
kable_classic( html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"),)
eventos | notação | probabilidade | cálculo | resultado |
---|---|---|---|---|
soma igual a 7 | B | P(B) | \(\frac{n_B}{n_{\Omega}}\) | 0.1666667 |
1º lançamento igual a 2 e soma igual a 7 | \(A \cap B\) | \(P(A \cap B)\) | \(\frac{n_{A\cap B}}{n_{\Omega}}\) | 0.0277778 |
1º lançamento igual a 2 dado que a soma é igual a 7 | \(A | B\) | \(P(A | B)\) | \(\frac{n_{A\cap B}}{n_{B}}\) | 0.1666667 |
Cacá e Ronaldinho estão machucados e talvez não possam defender o Brasil em sua próxima partida contra a Argentina. A probabilidade de Cacá jogar é 40%, e a de Ronaldinho, 70%. Com ambos os jogadores, o Brasil terá 60% de probabilidade de vitória; sem nenhum deles, 30%; com Cacá mas sem Ronaldinho, 50%, e com Ronaldinho mas sem Cacá, 40%. Qual é a probabilidade de o Brasil ganhar a partida?
Para casais que moram em uma dada região de Cuiabá, a probabilidade do marido estar satisfeito com o prefeito atual é de \(21\%\), a probabilidade da esposa estar satisfeita com o prefeito atual é de \(28\%\) e a probabilidade de que ambos, esposa e o marido estejam satisfeitos é de \(15\%\). Determine:
H: freguês é homem;
M: freguês é mulher;
A: freguês prefere salada;
B: freguês prefere carne; Calcular:
Muitos experimentos aleatórios produzem resultados não-numéricos. Por exemplo, considere o caso de um questionário, em que uma pessoa é indagada a respeito de uma proposição e as respostas possíveis são “SIM” ou “NAO”. Podemos definir uma variável que tome dois valores, 1 ou 0, por exemplo, correspondentes as respostas “SIM” ou “NAO”. Portanto antes de analisar esse tipo de experimento, é conveniente transformar seus resultados em números, o que é feito através da variável aleatória, que é uma regra de associaçãode um valor numérico a cada ponto do espaço amostral.
A Variável Aleatória é: Magalhães, M.N.; Lima, A.C.P. Noções de Probabilidade e Estatística.
Definição: Seja \((\Omega, \mathscr{A}, P)\) um espaço de probabilidade. Denomina-se variável aleatória, qualquer função \(X: \Omega \rightarrow \mathbb{R}\) tal que \[X^{-1}(I) = \left\{\omega \in \Omega: X(\omega) \in I\right\} \in \mathscr{A},\] para todo intervalo \(I \subset \mathbb{R}.\) Em palavras, \(X\) é tal que sua imagem inversa de intervalos \(I \subset \mathbb{R}\) pertençam a \(\sigma\)-álgebra \(\mathscr{A}\).
Exemplo 1: \[ \begin{array}{lllllll} \mbox{Experimento: lançamento de uma moeda};\\ \mbox{Eventos: c = sair cara e k = sair coroa};\\ \mbox{Espaço Amostral: }\Omega = \{c,k\}\\ \mbox{Defina a variável }X \mbox{ tal que: }X(c) = 0 \mbox{ ou }X(k) = 1;\\ \sigma\mbox{-álgebras: }\mathscr{A}_1 = \{\Omega,\emptyset\} \mbox{ e } \mathscr{A}_2 = \{\Omega,\emptyset, \{c\},\{k\}\};\\ X \mbox{ é uma variável aleatória com relação as } \sigma-\mbox{álgebras} \mathscr{A}_1 \mbox{ e } \mathscr{A}_2?\\ \end{array} \]
Resolução: Vamos começar com a \(\sigma\)-álgebra \(\mathscr{A}_1.\): \[ \begin{array}{ll} \square \mbox{Para o intervalo } I_1 = (-1,2) \Rightarrow X^{-1}(I_1) = \{c,k\} \in \mathscr{A}_1;\\ \square \mbox{Para o intervalo } I_2 = (-1,0.5) \Rightarrow X^{-1}(I_2) = \{c\} \notin \mathscr{A}_1. \end{array} \] Logo para a \(\sigma\)-álgebra \(\mathscr{A}_1\), \(X\) não é uma variável aleatória. Agora a \(\sigma\)-álgebra \(\mathscr{A}_2:\) Seja \(I \subset \mathbb{R}\) um intervalo arbitrário. Pela definição de imagem inversa, tem-se que \(X^{-1}(I) \subset \mathscr{A}_2\) e, portanto \(X\) é uma variável aleatória. Por exemplo, se \(I = (2,4)\) temos que \(X^{-1}(I) = \emptyset \in \mathscr{A}_2;\) No entanto, para o intervalo \(I_2 = (-1,0.5)\) temos \(X^{-1}(I_2) = \{c\} \in \mathscr{A}_2\), ou seja, em ambos os casos a imagem inversa pertence a \(\mathscr{A}_2\).
Exemplo 2: Considere \(\Omega = \{1,2,3\}\) e as seguintes coleções de subconjuntos: \[ \begin{array}{ll} \mathscr{A}_1 = \{\emptyset, \Omega, \{1\}, \{2\}, \{3\}, \{1,2\}, \{1,3\},\{2,3\}\};\\ \mathscr{A}_2 = \{\emptyset, \Omega, \{3\}, \{1,2\}\}; \end{array} \] - Seriam ambas \(\sigma\)-álgebras? - Definindo a variável \(X\) tal que: \(X\)(1) = 1, \(X\)(2) = 2 e \(X\)(3) = 3, verifique se \(X\) ? uma variável aleatória com relação a \(\mathscr{A}_1\) e \(\mathscr{A}_2\).
Resolução:
Definição Seja \(X\) uma variável aleatória em \((\Omega, \mathscr{A}, P)\), sua função de distribuição é definida por \[F_{X}(x) =P(X \leq x) =P(X \in \left(-\infty,x\right]),\]
com \(x\) percorrendo todos os reais. O conhecimento da função distribuição permite obter qualquer informação sobre a variável. Mesmo que a variável só assuma valores num subconjunto dos reais, a função de distribuição é definida em toda a reta. (Magalhães, M.N.; Lima, A.C.P. Noções de Probabilidade e Estatística). A função distribuição também é denominada por alguns autores de função acumulada, pois acumula as probabilidades dos valores menores ou iguais a \(x\).
Propriedade: Propriedades da Função Distribuição
Uma função de distribuição de uma variável \(X\) em \((\Omega, \mathscr{A}, P)\) obedece às seguintes propriedades:
\(\lim_{x\rightarrow -\infty}F_X(x) = 0\) e \(\lim_{x\rightarrow \infty}F_X(x) = 1;\)
\(F_X\) é contínua à direita;
\(F_X\) é não decrescente, ou seja, \(F_X(x) \leq F_X(y)\) sempre que \(x\leq y, \forall x, y \in \mathbb{R}.\)
Além dessas propriedades enunciadas temos:
\(P(X>a) = 1 - P(X \leq a) = 1 - F_X(a), a \in \mathbb{R};\)
\(P(a<X\leq b) =P(X \leq b) - P(X \leq a) = F_X(b) - F_X(a), \forall a, b \in \mathbb{R};\)
Para \(I = \left(-\infty,x\right]\), \(P(X \in I) =P(X\leq x) =P(\{\omega \in \Omega: X(\omega) \in I\});\)
Exemplo 1: Para o lançamento de uma moeda, seja \(\Omega = \{c,k\}\), \(\mathscr{A}\) o conjunto das partes de \(\Omega\) e \(X\) uma função de \(\Omega\) em \(\mathbb{R}\) \((X: \Omega \rightarrow \mathbb{R})\) da seguinte forma:
\[ X(\omega) = \left\{ \begin{array}{ll} 0, \mbox{se }\omega &=& \mbox{cara}; \\ 1, \mbox{se }\omega &=& \mbox{coroa}. \end{array} \right. \]
Note que \(X \sim \mbox{Bernoulli}(p)\) tal que \(P\)(cara) = \(1-p\) e \(P\)(coroa) = \(p\). Determine a função de distribuição de X e represente graficamente.
Gráfico no R:
p=0.4
x = seq(-1,2,0.1)
y = ifelse(x<0,0,
ifelse(x<1,p,1))
data = data.frame(x=x[-length(x)],y=y[-length(x)], xend=x[-1], yend=y[-length(x)])
ggplot(data, aes( x=x, y=y ,xend=xend,yend=yend)) +
geom_segment(size=1.2,color="orange")+
geom_point( aes( x=0, y=0 ), shape=1, size=3,color="orange")+
geom_point( aes( x=1, y=0.4 ), shape=1, size=3,color="orange") +
labs(x="x",y="F(x)",title="Função de distribuição acumulada")
Exemplo 2: O tempo de validade, em meses, de um óleo lubrificante num certo equipamento está sendo estudado. Sendo \(\Omega = \left\{\omega \in \mathbb{R}: 6 < \omega \leq 8\right\}\). Uma função de interesse é o próprio tempo de validade e, nesse caso, definimos \(X(\omega) = \omega, \forall \omega \in \Omega.\) A função \(X\) é variável aleatória e sua função de distribuição é dada por: \[ F_X(x) = \left\{ \begin{array}{lll} 0, & \mbox{ se } x<6; \\ \frac{x-6}{2}, & \mbox{ se } 6 \leq x < 8;\\ 1, & \mbox{ se } x \geq 8. \end{array} \right. \]
Verifique se as propriedades da função de distribuição estão satisfeitas. Faça o gráfico de \(F_X(x)\).
Gráfico no R:
x = seq(4,10,0.1)
y = ifelse(x<6,0,
ifelse(x<8,(x-6)/2,1))
data = data.frame(x=x,y=y)
ggplot(data, aes( x=x, y=y)) +
xlim(4,10)+
ylim(0,1)+
geom_line(size=1.2)+
labs(x="x",y="F(x)",title="Função de distribuição acumulada")
Uma variável aleatória é classificada como discreta, se assume somente um número enumerável de valores (finito ou infinito). A função de probabilidade de uma variável discreta é uma função que atribui probabilidade a cada um dos possíveis valores assumidos pela variável. Isto é, sendo \(X\) uma variável com valores \(x_1, x_2, \ldots,\) tem-se para \(i = 1, 2, \ldots,\) \[P(x_i) =P(X=x_i) =P(\{\omega \in \Omega: X(\omega)=x_i\}),\] ou ainda,
A função de probabilidade de \(X\) em (\(\Omega, \mathscr{A},P\)) satisfaz:
\[ \begin{array}{ll} \square 0 \leq P(x_i) \leq 1, \forall i = 1, 2, \ldots;\\ \square \sum_{i} P(x_i) = 1; \end{array} \] com a soma percorrendo todos os possíveis valores (eventualmente infinitos).
Exemplo: E: lançamento de duas moedas; \[ \begin{array}{lll} X: \mbox{ número de caras obtidas nas duas moedas};\\ c = \mbox{ sair cara e k = sair coroa};\\ \Omega = \{(c,c), (c,k), (k,c),(k,k)\}\\ \mbox{Valores que } X \mbox{ pode assumir: } X = 0, 1 \mbox{ ou } 2.\\ X = 0: \mbox{ corresponde ao evento} (k,k) \mbox{ com probabilidade }P(k \cap k)= \frac{1}{2}.\frac{1}{2} = \frac{1}{4}.\\ X = 1: \mbox{ corresponde ao evento} (c,k), (k,c) \mbox{ com probabilidade }P(c \cap k) + P(k \cap c)=\frac{1}{2}. \frac{1}{2} + \frac{1}{2}.\frac{1}{2} = \frac{1}{2}.\\ X = 2: \mbox{ corresponde ao evento} (c,c) \mbox{ com probabilidade }P(c \cap c)=\frac{1}{2}.\frac{1}{2} = \frac{1}{4}.\\ \end{array} \]
A função de probabilidade é dada por:
Exemplo: Considere uma urna contendo três bolas vermelhas e cinco pretas. Retire três bolas, sem reposição, e defina a v.a. X igual ao número de bolas pretas. Obtenha a distribuição (Função de probabilidade) de X. Solução: A variável aleatória de interesse é \(X:\) número de bolas pretas. Defina os eventos: P - bola retirada é preta e V - bola retirada é vermelha. O espaço amostral para esse experimento dada a v.a definida é \[ \Omega = \left\{(V,V,V), (V,P,P), (P,V,P), (P,P,V), (P,V,V), (V,P,V), (V,V,P), (P,P,P)\right\}. \] A v.a \(X\) pode assumir os valores 0, 1, 2 ou 3. A probabilidade de ocorrência de cada valor é dada por: \[ \begin{array}{lll} P(X=0) &= P(V\cap V\cap V) = \frac{3}{8}.\frac{2}{7}.\frac{1}{6} = \frac{6}{336};\\ P(X=1) &= P(P\cap V\cap V) + P(V\cap P\cap V) + P(V\cap V\cap P) = 3.\frac{5}{8}.\frac{3}{7}.\frac{2}{6} = \frac{90}{336};\\ P(X=2) &= P(V\cap P \cap P) + P(P\cap V\cap P) + P(P\cap P\cap V) = 3.\frac{3}{8}.\frac{5}{7}.\frac{4}{6} = \frac{180}{336};\\ P(X=3) &= P(P\cap P\cap P) = \frac{5}{8}.\frac{4}{7}.\frac{3}{6} = \frac{60}{336}; \end{array} \] A função de probabilidade é dada por: ## Variável Aleatória Contínua e Função Densidade Uma variável aleatória \(X\) em (\(\Omega, \mathscr{A},P\)), com função de distribuição \(F_X\), será classificada como contínua, se existir uma função não negativa \(f_X\) tal que: \[F_X(x) =P(X \leq x) = \int_{-\infty}^{x} f_X(w)dw, \forall x \in \mathbb{R}.\] A função \(f_X\) é denominada função densidade.
A função densidade de \(X\) em (\(\Omega, \mathscr{A},P\)) satisfaz: \[ \begin{array}{ll} \square f_X(x) \geq 0, \forall x \in \mathbb{R};\\ \square \int_{-\infty}^{\infty} f_X(w)dw = 1. \end{array} \]
Para se obter a probabilidade da variável estar num certo intervalo \((a,b],\) faz-se a integral da função densidade nesse intervalo, ou seja, \[ P(a<X\leq b) = \int_{a}^{b} f_X(x)dx = F_X(b) - F_X(a). \]
Exemplo: A duração, em anos, de uma certa lâmpada especial é uma variável aleatória contínua com densidade dada por:
\[ f_X(x) = \left\{ \begin{array}{ll} 2e^{-2x}, & x \geq 0;\\ 0, & \mbox{ caso contrário} \end{array} \right. \mbox{, ou seja, } f_X(x) = 2e^{-2x} I_{\left[0,\infty\right)}(x). \] A densidade acima também pode ser escrita da seguinte forma: Para se obter a função de distribuição \(F_X(x) =P(X \leq x) = \int_{-\infty}^{x} f_X(w)dw,\) analisa-se dois casos. \[ \begin{array}{ll} \square \mbox{Para }x<0, F_X(x) = 0, \mbox{ pois a função densidade é nula nesse intervalo.}\\ \square \mbox{Para } x \geq 0, \mbox{ temos } F_X(x) =P(X \leq x) = \int_{-\infty}^{x} f_X(w)dw = \int_{0}^{x} 2e^{-2w}dw = 1 - e^{-2x}. \end{array} \]
Se desejamos saber a probabilidade da lâmpada durar até 2 anos, calcula-se \(F_X(x)\) no ponto 2, ou seja, \(F_X(2) = 1 - e^{-4} \approx 0,9817.\)
Aplicação no R:
F=antiD(2*exp(-2*x) ~ x)
paste0("Integral não definida da função:")
## [1] "Integral não definida da função:"
A = F(Inf)-F(0)
paste0("Àrea sob a curva = ",A)
## [1] "Àrea sob a curva = 1"
P=F(2)-F(0)
paste0("probabilidade da lâmpada durar até 2 anos = ",round(P,4))
## [1] "probabilidade da lâmpada durar até 2 anos = 0.9817"
E=antiD(2*exp(-2*x)*x ~ x)
E=E(Inf)-E(0)
paste0("Média da exponencial com parâmetro igual a 2 = ",E)
## [1] "Média da exponencial com parâmetro igual a 2 = 0.5"
Seja \(X\) definida em (\(\Omega, \mathscr{A},P\)) e considere um evento \(A \in \mathscr{A},\) tal que \(P(A)>0.\) A função de distribuição condicional de \(X\) dado que \(A\) ocorreu, é definida por: \[ F_X(x|A) =P(X \leq x|A) = \frac{P(\left[X \leq x\right] \cap A)}{P(A)} \].
Exemplo pg 78 do Magalhães (capa rosa) Exemplo: O desempenho diário, de um certo conjunto de ações, pode ser medido como a porcentagem de crescimento do preço de venda em relação ao dia anterior. Suponha que este desempenho é uma variável aleatória contínua \(X\) com função densidade dada por:
Em diversas áreas do conhecimento é natural que o pesquisador planeje sua pesquisa estatística buscando responder questões práticas. Essas questões eventualmente consistem em trabalhar conjuntamente com duas ou mais variáveis. Nesta seção, apresenta-se o tratamento probabilístico para um conjunto de variáveis aleatórias.
Definição: Vetor Aleatório Seja (\(\Omega, \mathscr{A}, P\)) um espaço de probabilidade e \(\textbf{X}\) uma função de \(\Omega\) em \(\mathbb{R}^m\). Definimos como vetor aleatório, variável aleatória multidimensional ou variável aleatória multivariada a função representada por \(\textbf{X}(\omega) = (X_1(\omega), X_2(\omega), \cdots, X_m(\omega))\) tal que para todo \(i=1, 2, \ldots,m\) e todo \(I_i \subset \mathbb{R}\), temos \(X_i^{-1}(I_i) \in \mathscr{A}\).
A função distribuição conjunta de \(\textbf{X}\) é definida por \[F(\textbf{x}) = F(x_1,x_2,\ldots,x_m) = P(X_1\leq x_1, X_2\leq x_2, \ldots, X_m\leq x_m),\] para qualquer \(\textbf{x} = (x_1,x_2,\ldots,x_m) \in \mathbb{R}^m.\)
Seja \(\textbf{X}\) um vetor aleatório em (\(\Omega, \mathscr{A}, P\)) então para qualquer \(\textbf{x} \in \mathbb{R}^m\), \(F(\textbf{x})\) satisfaz as seguintes propriedades:
Vetor Discreto: Probabilidade Conjunta Se as variáveis do vetor aleatório são discretas, temos um vetor aleatório discreto. Sua função de probabilidade conjunta é definida da seguinte forma: \[P(\textbf{x}) = P(x_1,x_2,\ldots,x_m) = P(X_1 = x_1, X_2 = x_2, \ldots, X_m = x_m).\]
Propriedades da Função de Probabilidade Conjunta Seja um vetor aleatório discreto em (\(\Omega, \mathscr{A}, P\)). Então sua função de probabilidade conjunta satisfaz as propriedades:
Para o caso bidimensional a função de probabilidade conjunta é dada por: \[P(\textbf{x}) = P(x_1,x_2) = P\left[(X_1 = x_1) \cap (X_2 = x_2)\right] = P(X_1 = x_1, X_2 = x_2).\] A partir da função de probabilidade conjunta é possível obter as de \(X_1\) e \(X_2\), através da soma de uma das coordenadas. Assim, \(P(X_1=x_1) = \sum_{x_2}P(x_1,x_2)\) e \(P(X_2=x_2) = \sum_{x_1}P(x_1,x_2)\).
Exemplo: Duas moedas equilibradas são lançadas de forma independente e definiu-se as variáveis aleatórias \(X\) e \(Y\) da seguinte forma:\ \(X:\) número de caras nos dois lançamentos;\ \(Y:\) função indicadora de faces iguais nos dois lançamentos.\ O espaço de probabilidade associado a esse experimento é dado pela trinca (\(\Omega, \mathscr{A}, P\)) em que\ \(\Omega\) = {(c,c), (c,k), (k,c),(k,k)}; c = sair cara e k = sair coroa;\ \(\mathscr{A} = \{\Omega, \emptyset,\{c\},\{k\}\}\) é a \(\sigma\)-álgebra do conjunto das partes de \(\Omega\).\ A função de probabilidade \(P\) atribui igual probabilidade aos elementos de \(\Omega\).
Baseado nos resultados do experimento temos:
data.frame(
Eventos=c("(c,c)","(c,k)","(k,c)","(k,k)"),
Probabilidades=c("$\\frac{1}{4}$","$\\frac{1}{4}$","$\\frac{1}{4}$","$\\frac{1}{4}$"),
X=c(2,1,1,0),
Y=c(1,0,0,1)) %>%
kbl(escape = FALSE)%>%
kable_classic( html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"))
Eventos | Probabilidades | X | Y |
---|---|---|---|
(c,c) | \(\frac{1}{4}\) | 2 | 1 |
(c,k) | \(\frac{1}{4}\) | 1 | 0 |
(k,c) | \(\frac{1}{4}\) | 1 | 0 |
(k,k) | \(\frac{1}{4}\) | 0 | 1 |
A função de probabilidade conjunta de \(X\) e \(Y\) é dada por
data.frame(
a= c(0,1,2,"$P(Y=y)$"),
b= c(0,"$\\frac{1}{2}$",0,"$\\frac{1}{2}$"),
c= c("$\\frac{1}{4}$",0,"$\\frac{1}{4}$","$\\frac{1}{2}$"),
d= c("$\\frac{1}{4}$","$\\frac{1}{2}$","$\\frac{1}{4}$",1))%>%
`colnames<-`(c("$X \\setminus Y$","0","1","$P(X=x)$")) %>%
kbl(escape = FALSE)%>%
kable_classic( html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"))
\(X \setminus Y\) | 0 | 1 | \(P(X=x)\) |
---|---|---|---|
0 | 0 | \(\frac{1}{4}\) | \(\frac{1}{4}\) |
1 | \(\frac{1}{2}\) | 0 | \(\frac{1}{2}\) |
2 | 0 | \(\frac{1}{4}\) | \(\frac{1}{4}\) |
\(P(Y=y)\) | \(\frac{1}{2}\) | \(\frac{1}{2}\) | 1 |
Para obter a função de probabilidade marginal de \(X\) temos que somar nos valores observados de \(Y\), \(P(X=x) = \sum_{y}P(x,y)\). Ou seja, \[ \begin{array}{ll} P(X=0) &= P(X=0,Y=0)+P(X=0,Y=1) = 0 + \frac{1}{4} = \frac{1}{4},\\ P(X=1) &= P(X=1,Y=0)+P(X=1,Y=1) = \frac{1}{2} + 0 = \frac{1}{2},\\ P(X=2) &= P(X=2,Y=0)+P(X=2,Y=1) = 0 + \frac{1}{4} = \frac{1}{4}. \end{array} \]
Analogamente, para calcular a função de probabilidade marginal de \(Y\) temos que somar nos valores observados de \(X\), \(P(Y=y) = \sum_{x}P(x,y)\). Ou seja, \[ \begin{array}{ll} P(Y=0) &= P(X=0,Y=0)+P(X=1,Y=0) +P(X=2,Y=0) = 0 + \frac{1}{2} + 0 = \frac{1}{2},\\ P(Y=1) &= P(X=0,Y=1)+P(X=1,Y=1) +P(X=2,Y=1) = \frac{1}{4} + 0 + \frac{1}{4} = \frac{2}{4} = \frac{1}{2}. \end{array} \]
data.frame(
x=c(0,1,2),
pX=c("$\\frac{1}{4}$","$\\frac{1}{2}$","$\\frac{1}{4}$"))%>%
`colnames<-`(c("x","$P(X=x)$")) %>%
t()%>%
kbl(caption="Função de probabilidade marginal de X",col.names=NULL)%>%
kable_classic(html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"))
x | 0 | 1 | 2 |
\(P(X=x)\) | \(\frac{1}{4}\) | \(\frac{1}{2}\) | \(\frac{1}{4}\) |
data.frame(
y=c(0,1),
py=c("$\\frac{1}{2}$","$\\frac{1}{2}$"))%>%
`colnames<-`(c("y","$P(Y=y)$")) %>%
t()%>%
kbl(caption="Função de probabilidade marginal de Y",col.names=NULL)%>%
kable_classic(html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"))
y | 0 | 1 |
\(P(Y=y)\) | \(\frac{1}{2}\) | \(\frac{1}{2}\) |
Definição: Vetor Contínuo, Densidade Conjunta e Marginal Denominamos vetor aleatório contínuo o vetor aleatório cujas componentes são variáveis aleatórias contínuas. Em outras palavras, um vetor aleatório é contínuo se, dada a função de distribuição \(F\), existe uma função \(f: \mathbb{R}^m \rightarrow \mathbb{R}^{+}\), denominada função densidade conjunta, tal que \[F(\textbf{x}) = \int_{-\infty}^{x_1}\ldots\int_{-\infty}^{x_m} f(\textbf{y}) dy_1\ldots dy_m.\]
A função densidade marginal é dada pela expressão: \[f_{X_k}(x_k) = \int_{x_1}\ldots \int_{x_m} f(\textbf{x})dx_1\ldots dx_m, \forall i\neq k.\]
Seja X um vetor aleatório contínuo em (\(\Omega, \mathscr{A}, P\)). Então sua função densidade conjunta satisfaz as propriedades:
\begin{ex} Obtenha o valor de \(k\), de modo que a função abaixo seja a densidade conjunta de três variáveis aleatórias contínuas \(X\), \(Y\) e \(Z\). \[ f(x,y,z) = \left\{ \begin{array}{ll} kxy^2z,& \mbox{ se } 0\leq x\leq 1 \mbox{ e } 0\leq y\leq 1 \mbox{ e } 0\leq z\leq \sqrt{2}; \\ 0, & \mbox{ caso contrário}. \end{array} \right. \]
Exemplo: A função mista de probabilidade conjunta de \(X\) e \(Y\) é dada por: \[ f(x,y) = \left\{ \begin{array}{lll} \frac{xy^{x-1}}{3},& \mbox{ se } x = 1,2,3 \mbox{ e } 0\leq y\leq 1; \\ 0, & \mbox{ caso contrário}. \end{array} \right. \] - Verifique se essa função poderá gerar probabilidades; - Calcule a probabilidade conjunta de \(X\geq 2\) e \(Y\geq 1/2\).
A função de distribuição condicional de $X$ dado $Y=y$ é dada por:
\[F_{X|Y}(x|y) = P(X\leq x| Y\leq y) = \frac{P(\left[X\leq x\right]\cap \left[Y\leq y\right])}{P(Y\leq y)}.\]
A função de distribuição condicional de \(X\) dado \(Y=y\) (\(Y\) uma variável aleatória discreta) é dada por: $$
F_{X|Y}(x|Y=y) = . $$
Como consequência temos: \[ F_X(x) = \sum_{y} P(Y=y)F_{X|Y}(x|Y=y). \]
Função de Probabilidade Condicional - Caso Discreto \[ P_{X|Y}(x|y) = \frac{P_{X,Y}(x,y)}{P_Y(y)}. \]
Função de Densidade Condicional - Caso Contínuo \[ f_{X|Y}(x|y) = \frac{f_{X,Y}(x,y)}{f_Y(y)}. \]
Exemplo: As variáveis \(X\) e \(Y\) têm densidade dada por \[ f_{X,Y}(x,y) = (x+y), \quad 0\leq x\leq 1, \quad 0\leq y\leq 1. \] Obtenha a densidade condicional \(f_{X|Y}(x|y)\).
Definição: Independência entre Variáveis Duas variáveis aleatórias, \(X\) e \(Y\) em (\(\Omega, \mathscr{A}, P\)), são independentes se a informação sobre uma delas não altera a probabilidade de ocorrência da outra. Em termos de função distribuição temos: \[ X, Y \mbox{ independentes} \Leftrightarrow F_{X,Y}(x,y) = F_X(x)F_Y(y), \forall (x,y) \in \mathbb{R}^2. \]
Para as discretas, podemos escrever uma definição equivalente com o uso de funções de probabilidade: \[X, Y \mbox{ independentes} \Leftrightarrow P_{X,Y}(x,y) = P_X(x)P_Y(y), \forall (x,y) \in \mathbb{R}^2.\] Para as contínuas, a condição de independência usa as densidades: \[ X, Y \mbox{ independentes} \Leftrightarrow f_{X,Y}(x,y) = f_X(x)f_Y(y), \forall (x,y) \in \mathbb{R}^2. \] %% pg 134 - Magalhães (capa rosa)
Exemplo: Com base em resultados do posto de saúde do bairro, estabeleceu-se a função de probabilidade conjunta entre os números diários de crianças atendidas com alergia (\(X\)) e com pneumonia (\(Y\)). Na tabela abaixo, apresentamos a conjunta e as marginais para essas variáveis.
data.frame(
a= c(0,1,2,3,"$P(Y=y)$"),
b= c("$\\frac{1}{16}$","$\\frac{1}{8}$","$\\frac{1}{16}$","0","$\\frac{1}{4}$"),
c= c("$\\frac{1}{16}$","$\\frac{1}{8}$","$\\frac{1}{8}$","$\\frac{1}{8}$","$\\frac{7}{16}$"),
d= c("$\\frac{1}{8}$","0","$\\frac{1}{8}$","$\\frac{1}{16}$","$\\frac{5}{16}$"),
e= c("$\\frac{1}{4}$","$\\frac{1}{4}$","$\\frac{5}{16}$","$\\frac{3}{16}$","1")) %>%
`colnames<-`(c("$X \\setminus Y$","0","1","2","$P(X=x)$")) %>%
kbl()%>%
kable_classic(html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"))
\(X \setminus Y\) | 0 | 1 | 2 | \(P(X=x)\) |
---|---|---|---|---|
0 | \(\frac{1}{16}\) | \(\frac{1}{16}\) | \(\frac{1}{8}\) | \(\frac{1}{4}\) |
1 | \(\frac{1}{8}\) | \(\frac{1}{8}\) | 0 | \(\frac{1}{4}\) |
2 | \(\frac{1}{16}\) | \(\frac{1}{8}\) | \(\frac{1}{8}\) | \(\frac{5}{16}\) |
3 | 0 | \(\frac{1}{8}\) | \(\frac{1}{16}\) | \(\frac{3}{16}\) |
\(P(Y=y)\) | \(\frac{1}{4}\) | \(\frac{7}{16}\) | \(\frac{5}{16}\) | 1 |
O conceito de valor esperado ou média parece ter sido historicamente desenvolvido para avaliar ganhos em jogos de azar. O retorno financeiro, obtido em uma jogada de dados ou rodada de um certo jogo de cartas, seria imprevisível. A questão de interesse era avaliar esse retorno após várias jogadas. Desta forma ficaria mais fácil contabilizar perdas e ganhos. Com o auxílio do formalismo matemático, essas ideias foram estabelecidas em definições rigorosas, incluindo os casos discreto e contínuo.
-Magalhães, M.N; Probabilidade e Variáveis Aleatórias. 3ª Edição. Edusp.
Seja \(X\) uma variável aleatória discreta com função de probabilidade \(\p\) e valor observado \(x_i, i = 1,2,\ldots,n.\) O valor esperado, ou esperança matemática ou média de \(X\) é definido por
\[ E(X) = \mu_X = \sum_{i=1}^{n}x_iP(X=x_i), \quad i = 1, 2, \ldots, n. \]
Seja \(X\) uma variável aleatória contínua com função densidade \(f_X\). O valor esperado, ou esperança matemática ou média de \(X\) é definido por
\[ E(X) = \int_{-\infty}^{\infty}xf_X(x)dx, \] desde que a integral esteja bem definida. \(E(X)\) vai estar bem definida se a integral em pelo menos um desses intervalos, for finita; isto é, \[ E(X) = \int_{-\infty}^{0}xf_X(x)dx < \infty \quad \mbox{ou} \quad \int_{0}^{\infty}xf_X(x)dx < \infty. \]
Teorema Seja \(X\) uma variável aleatória com função de distribuição \(F\) e cujo valor esperado existe. Então, \[ E(X) = \int_{-\infty}^{\infty}xf_X(x)dx = \int_{0}^{\infty}[1-F_X(x)]dx - \int_{-\infty}^{0}F_X(x)dx. \] A demonstração do Teorema () pode ser encontrada em .
Teorema II Seja \(X\) uma variável aleatória cujo valor esperado existe. Considere \(Y = g(X)\), uma função de \(X\) que também é variável aleatória no mesmo espaço de probabilidade. Então: \[ E(g(X)) = \int_{-\infty}^{\infty}g(x)f_X(x)dx. \] A demonstração do Teorema () pode ser encontrada em .
Exemplo A variável aleatória \(X\) tem função densidade de probabilidade dada por: \[ f_X(x) = \left\{ \begin{array}{ll} \frac{1}{4}(x+2),& -2\leq x < 0;\\ \frac{1}{2}, & 0 \leq x < 1;\\ 0, & \mbox{caso contrário.} \end{array} \right. \] Qual a esperança de \(g(X) = X^2\)?
Solução: Para o valor esperado de \(g(X)\) temos: \[ \begin{array}{llll} E(g(X)) = E(X^2) &= \int_{-\infty}^{\infty}g(x)f_X(x)dx.\\ &= \int_{-2}^{0}x^2\frac{1}{4}(x+2)dx + \int_{0}^{1}x^2\frac{1}{2}dx \\ &= \frac{1}{4}\left.\left(\frac{x^4}{4}+\frac{2x^3}{3}\right)\right|_{-2}^0 + \left.\frac{x^3}{6}\right|_{0}^{1} = \frac{1}{2}. \end{array} \]
Definição: Sejam \((X_1,\ldots,X_n)\) um vetor \(n\)-dimensional de variáveis aleatórias com funções de probabilidades (caso discreto) ou densidade (caso contínuo) \(f_{X_1,\ldots,X_n}(x_1,\ldots,x_n)\). O valor esperado de uma função \(g(x_1,\ldots,x_n)\) de \(n\) variáveis aleatórias, denotado por \(Eleft[g(x_1,\ldots,x_n)\right]\), é definido por
\[ E\left[g(x_1,\ldots,x_n)\right] = \sum_{x_1} \ldots \sum_{x_n} g(x_1,\ldots,x_n)f_{X_1,\ldots,X_n}(x_1,\ldots,x_n), \] quando \(X_1,\ldots,X_n\) são variáveis aleatórias discretas. %somando em todos os possíveis valores assumidos pelos \(X_i's, i = 1,\ldots,n\). Se \(X_1,\ldots,X_n\) são variáveis aleatórias contínuas temos: \[\begin{equation} Eleft[g(x_1,\ldots,x_n)\right] = \int_{-\infty}^{\infty}\ldots\int_{-\infty}^{\infty} g(x_1,\ldots,x_n)f_{X_1,\ldots,X_n}(x_1,\ldots,x_n)dx_1\ldots dx_n, \end{equation}\] \end{defin}
Para uma importante aplicação da Definição , suponha que \(E(X_1)\) e \(E(X_2)\) sejam ambos finitos e faça \(g(X_1,X_2) = X_1+X_2.\) Então, no caso contínuo: \[ \begin{array}{llll} E(X_1+X_2) &= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty} (x_1+x_2)f_{X_1,X_2}(x_1,x_2)dx_1dx_2,\\ &= \int_{-\infty}^{\infty}\int_{-\infty}^{\infty}x_1f_{X_1,X_2}(x_1,x_2)dx_1dx_2 + \int_{-\infty}^{\infty}\int_{-\infty}^{\infty}x_2f_{X_1,X_2}(x_1,x_2)dx_1dx_2,\\ &= \int_{-\infty}^{\infty}x_1f_{X_1}(x_1)dx_1 + \int_{-\infty}^{\infty}x_2f_{X_2}(x_2)dx_2,\\ &= E(X_1) + E(X_2). \end{array} \]
No caso discreto: \[ \begin{array}{lll} E(X_1+X_2) &= \sum_{x_1}\sum_{x_2} (x_1+x_2)P(x_1,x_2),\\ &= \sum_{x_1}\sum_{x_2} x_1P(x_1,x_2) + \sum_{x_1}\sum_{x_2} x_2P(x_1,x_2),\\ &= \sum_{x_1}x_1P(x_1) + \sum_{x_2} x_2P_{X_2}(x_2),\\ &= E(X_1) + E(X_2). \end{array} \]
Propriedade: Esperança da Soma de Variáveis Aleatórias
Sejam \(X_1,\ldots,X_n\) variáveis aleatórias cujo valor esperado existe. Então, se a esperança da soma dessas variáveis existir, temos: \[ \begin{array}{lll} E(X_1 + \ldots + X_n) = E(X_1) + \ldots + E(X_n). \end{array} \]
Exemplo: Sejam \(X_1,\ldots,X_n,\) variáveis aleatórias independentes com distribuição Bernoulli de parâmetro \(p\). Qual o valor esperado de \(Y = X_1 + \ldots + X_n\)?
Sejam \(X_1,\ldots,X_n\) variáveis aleatórias independentes cujo valor esperado é finito. Então, a esperança do produto dessas variáveis é finita e é igual ao produto dessas esperanças, isto é, \[ \begin{array}{lll} E\left(\prod \limits_{i=1}^{n}X_i\right) = E(X_1).E(X_2)\ldots E(X_n). \end{array} \]
Definição: Variância e Desvio Padrão
Sendo \(\mu<\infty\), definimos a variância de \(X\) como o momento central de ordem 2, isto é, \[Var(X) = \sigma^2 = E\left[(X-\mu)^2\right];\] O desvio padrão é a raíz quadrada da variância.
Definição: Coeficiente de Assimetria
Seja \(X\) uma variável aleatória qualquer com valor esperado \(\mu\) e desvio padrão \(\sigma\). O de \(X\), denotado por \(\alpha_3\), indica o grau de assimetria da sua distribuição de probabilidade e é definido por: \[\alpha_3 = \frac{E\left[(X-\mu)^3\right]}{\sigma^3};\] em que supomos a existência do 3º momento de \(X\).
Definição: Coeficiente de Curtose
Seja \(X\) uma variável aleatória qualquer com valor esperado \(\mu\) e desvio padrão \(\sigma\). O da variável \(X\), denotado por \(\alpha_4\), indica o grau de achatamento da sua distribuição de probabilidade e é definido por: \[\alpha_4 = \frac{E\left[(X-\mu)^4\right]}{\sigma^4};\] em que supomos a existência do 4º momento de \(X\).
Definição: Covariância
Sejam \(X\) e \(Y\) variáveis aleatórias no mesmo espaço de probabilidade. A entre entre \(X\) e \(Y\) é definida por \[Cov(X,Y) = \sigma_{X,Y} = E\left[(X-\mu_X)(Y-\mu_Y)\right];\] desde que as esperanças presentes na expressão existam.
Propriedade: A covariância entre entre \(X\) e \(Y\) é igual a esperança do produto menos o produto das esperanças, isto é, \[ Cov(X,Y) = E(XY) - E(X).E(Y); \] sempre que as esperanças envolvidas estejam bem definidas.
Propriedade: Sejam \(X_1,\ldots,X_n\) variáveis aleatórias num mesmo espaço de probabilidade. Então, sempre que as esperanças envolvidas estejam bem definidas, temos: \[\mbox{Var}\left(\sum_{i=1}^{n}X_i\right) = \sum_{i=1}^{n}\mbox{Var}(X_i) + 2\sum_{i<j}\sum \mbox{Cov}(X_i,X_j);\] em que \(1\leq i<j\leq n.\) Se, além dessas condições mencionadas, as variáveis forem independentes, então \[\mbox{Var}\left(\sum_{i=1}^{n}X_i\right) = \sum_{i=1}^{n}\mbox{Var}(X_i);\]
Exemplo: Sejam \(X_1,\ldots,X_n,\) variáveis aleatórias independentes com distribuição Bernoulli de parâmetro \(p\). Qual a variância de \(Y = X_1 + \ldots + X_n\)?
Definição: Coeficiente de Correlação Sejam \(X\) e \(Y\) variáveis aleatórias no mesmo espaço de probabilidade. Supondo que as esperanças de \(X\) e \(Y\) existam, o coeficiente de correlação entre \(X\) e \(Y\) é definido por \[\mbox{Corr}(X,Y) = \rho_{X,Y} = \frac{\mbox{Cov}(X,Y)}{\sigma_X\sigma_Y},\]
em que \(\sigma_X\) é o desvio padrão da variável aleatória \(X\) e \(\sigma_Y\) é o desvio padrão da variável aleatória \(Y\).
Definição: Esperança Condicional
Sejam \((X,Y)\) duas variáveis aleatórias e \(g(x,y)\) uma função de \(X\) e \(Y\). A esperança condicional de \(g(X,Y)\) dado \(Y=y\) é definida por \[ E\left[g(X,Y)|Y=y\right] = \int_{-\infty}^{\infty} g(x,y)f_{X|Y}(x|y)dx, \] Se \((X,Y)\) são conjuntamente contínuas, e \[ E\left[g(X,Y)|Y=y\right] = \sum_{x_i} g(x,y)P(x|y), \quad i = 1,2,\ldots,n, \] se \((X,Y)\) são conjuntamente discretas.
Quando \(g(x,y) = x,\) temos \(E(X|Y)\). Essa definição pode ser generalizada para mais de duas dimensões. Sejam \((X_1,\ldots,X_n,Y_1,\ldots,Y_m)\) \(n+m\) variáveis aleatórias contínuas com densidade \(f_{X_1,\ldots,X_n,Y_1,\ldots,Y_m}(x_1,\ldots,x_n,y_1,\ldots,y_m)\), então
\[ \begin{array}{lll} E\left[g(X_1,\ldots,X_n,Y_1,\ldots,Y_m)|y_1,\ldots,y_m\right] = \int_{-\infty}^{\infty}\ldots \int_{-\infty}^{\infty} g(x_1,\ldots,x_n,y_1,\ldots,y_m)\\ \times f_{X_1,\ldots,X_n|Y_1,\ldots,Y_m}(x_1,\ldots,x_n|y_1,\ldots,y_m)dx_1\ldots dx_n. \end{array} \]
Exemplo: Sejam \(X\) e \(Y\) duas variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},\p\)) conjuntamente distribuídas segundo a densidade \(f_{X,Y}(x,y) = (x+y)I_{(0,1)}(x)I_{(0,1)}(y)\). Calcule \(E(X|Y)\).
Teorema: Sejam \(X\) e \(Y\) variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},\p\)). A esperança de \(g(X)\) pode ser obtida por
\[ E\left[g(X)\right] = E\left[E\left[g(X)|Y\right]\right], \] em particular, quando \(g(X) = X\) temos: \[ E\left[X\right] = E\left[E\left[X|Y\right]\right], \] desde que as esperanças existam.
Uma aplicação útil do Teorema é obter a esperança do produto \(XY\) em função da esperança condicional de \(X\) dado \(Y\): \[E(XY) = E\left[E(XY|Y)\right].\]
%% Magalhães - pg263: Exemplo: Um ponto \(Y\) é escolhido de acordo com o modelo Uniforme\(\left[0,1\right]\). A seguir um outro ponto \(X\) é escolhido, também segundo o modelo Uniforme contínuo, mas, agora no intervalo \(\left[0,Y\right]\). Qual o valor esperado de \(X\)?
Exemplo: A função densidade conjunta de \(X\) e \(Y\) é dada por: \[f_{X,Y}(x,y) = \frac{1}{y}\mbox{e}^{-(y+x/y)}, \quad x>0, \quad y>0.\]
Determine \(E(X)\), \(E(Y)\) e mostre que \(\mbox{Cov}(X,Y)=1\).\
Definição Variância Condicional
Sejam \((X,Y)\) duas variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},\p\)). A variância condicional de \(X\), dado \(Y=y\) é definida por \[ \mbox{Var}\left(X|Y=y\right) = E\left(X^2|Y=y\right) - E^2\left(X|Y=y\right). \] Supondo a existência das esperanças envolvidas.
Teorema: \[ \mbox{Var}\left(X\right) = E\left[\mbox{Var}\left(X|Y\right)\right] - \mbox{Var}\left[E\left(X|Y\right)\right]. \]
Definição: Covariância Condicional
Sejam \(X\), \(Y\) e \(Z\) variáveis aleatórias no mesmo espaço de probabilidade (\(\Omega,\mathscr{A},\p\)). A entre \(X\) e \(Y\) dado \(Z=z\) é definida por \[ \mbox{Cov}\left(XY|Z=z\right) = E\left(XY|Z=z\right) - E\left(X|Z=z\right)E\left(Y|Z=z\right). \] Supondo a existência das esperanças envolvidas.
Definição: A função geradora de momentos da variável \(X\) é definida por
\[ M_X(t) =E(e^{tX}) \left\{ \begin{array}{ll} \sum_{x}e^{tx}P(X=x), & \mbox{ se } X \mbox{ é discreta com função de probabilidade } P(X=x);\\ \int_{\infty}^{\infty}e^{tx}f_X(x)dx & \mbox{ se } X \mbox{ é contínua com função densidade} f_X(x); \end{array} \right. \] a esperança deve ser finita para \(t\) real em algum intervalo \(-h<t<h\) com \(h>0\).
\(M_X(t)\) é denominada de função geratriz de momentos porque todos os momentos de \(X\) podem ser obtidos com o cálculo sucessivo da derivada de \(M_X(t)\), avaliado em \(t=0\).
Teorema: Suponha que a função geradora de momentos de \(X\) exista. Logo, \(E(X^n)\) existe para \(n = 1, 2, \ldots\) e temos: \[E(X^n) = \frac{\partial^n}{\partial t^n}\left.M_X(t)\right|_{t=0}.\]
Exemplo: Se \(X \sim \mbox{Pois}(\lambda)\), encontre sua função geradora de momentos. A partir da função geradora de momentos calcule a média e a variância de \(X\).
Aplicação: Cálculo do somatório no onsolverFGM da Poisson
Cálculos da primeira derivada no R:
Deriv=mosaicCalc::D(exp(lambda*(exp(t)-1))~t)
Deriv2=mosaicCalc::D(exp(lambda*(exp(t)-1))~t+t)
Deriv
## function (t, lambda)
## exp(lambda * (exp(t) - 1)) * (lambda * exp(t))
Deriv2
## function (t, lambda)
## exp(lambda * (exp(t) - 1)) * (lambda * exp(t)) * (lambda * exp(t)) +
## exp(lambda * (exp(t) - 1)) * (lambda * exp(t))
\[ exp(\lambda.(e^t - 1)).(\lambda.e^t).(\lambda.e^t) + exp(\lambda.(e^t - 1)).(\lambda . e^t) \]
Estudo numérico: Atribui-se um vetor numérico de 0 a 100 para os valores da variável de Poisson & e o valor 20 para a taxa da Poisson:
lambda=20
x=seq(0,50,1)
EX=sum(dpois(x,lambda)*x)
EX2=sum(dpois(x,lambda)*x^2)
VAR=EX2-EX^2
paste0("estimativa da esperança = ",EX)
## [1] "estimativa da esperança = 19.9999997508215"
paste0("estimativa da variância = ",VAR)
## [1] "estimativa da variância = 19.9999971042033"
lambda=20
x=seq(0,50,1)
f = function(t) {
sum(dpois(x,lambda)*exp(t*x))
}
t0=0
EX=grad(f, t0)
EX2=hessian(f,t0)
VAR=EX2-EX^2
paste0("estimativa da esperança pela FGM= ",EX)
## [1] "estimativa da esperança pela FGM= 19.9999997508272"
paste0("estimativa da variância pela FGM= ",VAR)
## [1] "estimativa da variância pela FGM= 19.9999962081612"
Resultados:
data.frame(
dist=c("Poisson"),
p=c("$\\frac{e^{-\\lambda}.\\lambda^x}{x!}$"),
fgm=c("$\\exp\\left(\\lambda(e^t-1)\\right)$"),
deriv1=c("$\\exp(\\lambda.(e^t - 1)).(\\lambda . e^t)$"),
E = c("$\\lambda$"),
deriv2=c("$\\exp(\\lambda.(e^t - 1)).(\\lambda.e^t).(\\lambda.e^t) +
\\exp(\\lambda.(e^t - 1)).(\\lambda . e^t)$"),
E2 =c("$\\lambda^2+\\lambda$"),
VAR = c("$\\lambda$"))%>%
`colnames<-`(c("Distribuição","$P(X=x)$","$M_x(t)=E\\left(e^{tX}\\right)$","$\\frac{\\partial M_x(t)}{\\partial t}$",
"$\\left|\\frac{\\partial M_x(t)}{\\partial t}\\right|_{t=0}=E(X)$",
"$\\frac{\\partial^2 M_x(t)}{\\partial t^2}$",
"$\\left|\\frac{\\partial^2 M_x(t)}{\\partial t^2}\\right|_{t=0}=E(X^2)$","$VAR(X)=E(X^2)-E^2(X)$")) %>%
t()%>%
kbl(caption = "FGM") %>%
kable_classic(html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"))
Distribuição | Poisson |
\(P(X=x)\) | \(\frac{e^{-\lambda}.\lambda^x}{x!}\) |
\(M_x(t)=E\left(e^{tX}\right)\) | \(\exp\left(\lambda(e^t-1)\right)\) |
\(\frac{\partial M_x(t)}{\partial t}\) | \(\exp(\lambda.(e^t - 1)).(\lambda . e^t)\) |
\(\left|\frac{\partial M_x(t)}{\partial t}\right|_{t=0}=E(X)\) | \(\lambda\) |
\(\frac{\partial^2 M_x(t)}{\partial t^2}\) | \(\exp(\lambda.(e^t - 1)).(\lambda.e^t).(\lambda.e^t) + \exp(\lambda.(e^t - 1)).(\lambda . e^t)\) |
\(\left|\frac{\partial^2 M_x(t)}{\partial t^2}\right|_{t=0}=E(X^2)\) | \(\lambda^2+\lambda\) |
\(VAR(X)=E(X^2)-E^2(X)\) | \(\lambda\) |
Teorema: Se \(X\) e \(Y\) são variáveis aleatórias independentes, a função geradora da soma de variáveis aleatórias independentes é igual ao produto das funções geradoras individuais, ou seja \[ \begin{array}{llll} M_{X+Y}(t) &= E\left[e^{t(X+Y)}\right],\\ &= E\left[e^{tX}e^{tY}\right]\\ &= E\left[e^{tX}\right]E\left[e^{tY}\right]\\ &= M_X(t).M_Y(t). \end{array} \]
Teorema: Se duas variáveis aleatórias têm funções geradoras de momentos que existem, e são iguais, então elas têm a mesma função distribuição.
Exemplo: Utilizando a FGM, calcule a distribuição de \(X + Y\) quando \(X\) e \(Y\) são variáveis aleatórias independentes com
Exemplo: Sendo \(Z \sim N(0,1)\) e \(X \sim N(\mu,\sigma^2)\), encontre suas respectivas funções geradoras de momentos.
Exemplo: Função Geradora de Momentos Multidimensional Sejam \(X_1,\ldots,X_n\) variáveis aleatórias definidas num mesmo espaço de probabilidade e \(t_1,\ldots,t_n\) números reais. A função geradora de momentos multidimensional dessas variáveis é definida por \[M_{X_1,\ldots,X_n}(t_1,\ldots,t_n) = E(e^{t_1X_1+\ldots+t_nX_n}) = E(e^{\sum_{i=1}^{n}t_iX_i}),\] desde que a esperança seja finita para os \(t_i\)’s tomados numa vizinhança de zero, \(i=1,\ldots,n\).
Teorema: Função Geradora de Momentos Multidimensional - Variáveis Independentes Sejam \(X_1,\ldots,X_n\) variáveis aleatórias definidas num mesmo espaço de probabilidade com função geradora conjunta \(M_{X_1,\ldots,X_n}(t_1,\ldots,t_n)\), com os \(t_i's\) tomados numa vizinhança de zero. Então as variáveis \(X_1,\ldots,X_n\) são independentes se, e somente se, a função geradora de momentos conjunta pode ser fatorada como o produto das funções geradoras das variáveis. Isto é, \[M_{X_1,\ldots,X_n}(t_1,\ldots,t_n) = \prod_{i=1}^{n}M_{X_i}(t_i).\]
Exemplo: Sejam \(X_1\) e \(X_2\) variáveis independentes com a mesma densidade \(N(0,1)\). Vamos obter a conjunta de \(Y_1=X_1+X_2\) e \(Y_2=X_1-X_2\) e verificar se são independentes:
Exemplo: Sejam \(Z_1, Z_2, \ldots, Z_n\) variáveis aleatórias normais padrão independentes. Utilizando a função geradora de momentos, mostre que \(S_n = Z_1^2+Z_2^2+\ldots+Z_n^2\) segue uma distribuição Qui-Quadrado com \(n\) graus de liberdade.
Sendo \(X\) uma variável aleatória em \((\Omega,\mathscr{A},P)\), a função ou transformação \(h:X\rightarrow \re\) também será uma variável aleatória no mesmo espaço de probabilidade. Dado o conhecimento de \(X\) através de, por exemplo, sua função de distribuição, desejamos obter o comportamento de \(h(X)\).
Exemplo 1: A função de probabilidade conjunta de \(X\) e \(Y\) é dada por:
data.frame(
a= c(0,1),
b= c("$\\frac{1}{4}$","$\\frac{1}{4}$"),
c= c("$\\frac{1}{8}$",0),
d= c("$\\frac{1}{8}$","$\\frac{1}{4}$")) %>%
`colnames<-`(c("$X \\setminus Y$","0","1","2")) %>%
kbl()%>%
kable_classic( html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"))
\(X \setminus Y\) | 0 | 1 | 2 |
---|---|---|---|
0 | \(\frac{1}{4}\) | \(\frac{1}{8}\) | \(\frac{1}{8}\) |
1 | \(\frac{1}{4}\) | 0 | \(\frac{1}{4}\) |
Obtenha a distribuição conjunta de \(Z=X+Y\) e \(W=X-Y\).
Solução Uma forma prática de obter as funções de probabilidade dessas variáveis é construir, inicialmente, uma tabela com seus valores a partir da conjunta de \(X\) e \(Y\).
data.frame(
a= c("(0,0)","(0,1)","(0,2)","(1,0)","(1,1)","(1,2)"),
b= c("$\\frac{1}{4}$","$\\frac{1}{8}$","$\\frac{1}{8}$","$\\frac{1}{4}$",0,"$\\frac{1}{4}$"),
c= c(0,1,2,1,2,3),
d= c(0,-1,-2,1,0,-1)) %>%
`colnames<-`(c("$X,Y$","P(x,y)","Z=X+Y","W=X-Y")) %>%
kbl()%>%
kable_classic( html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"))
\(X,Y\) | P(x,y) | Z=X+Y | W=X-Y |
---|---|---|---|
(0,0) | \(\frac{1}{4}\) | 0 | 0 |
(0,1) | \(\frac{1}{8}\) | 1 | -1 |
(0,2) | \(\frac{1}{8}\) | 2 | -2 |
(1,0) | \(\frac{1}{4}\) | 1 | 1 |
(1,1) | 0 | 2 | 0 |
(1,2) | \(\frac{1}{4}\) | 3 | -1 |
data.frame(
z=c(0,1,2,3),
pz=c("$\\frac{1}{4}$","$\\frac{3}{8}$","$\\frac{1}{8}$","$\\frac{1}{4}$"))%>%
`colnames<-`(c("Z=X+Y","$P(Z=z)$")) %>%
t()%>%
kbl(caption="Função de probabilidade marginal de Z",col.names=NULL)%>%
kable_classic( html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"))
Z=X+Y | 0 | 1 | 2 | 3 |
\(P(Z=z)\) | \(\frac{1}{4}\) | \(\frac{3}{8}\) | \(\frac{1}{8}\) | \(\frac{1}{4}\) |
data.frame(
w=c(-2,-1,0,1),
pw=c("$\\frac{1}{8}$","$\\frac{3}{8}$","$\\frac{1}{4}$","$\\frac{1}{4}$"))%>%
`colnames<-`(c("W=X-Y","$P(W=w)$")) %>%
t()%>%
kbl(caption="Função de probabilidade marginal de W",col.names=NULL)%>%
kable_classic( html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"))
W=X-Y | -2 | -1 | 0 | 1 |
\(P(W=w)\) | \(\frac{1}{8}\) | \(\frac{3}{8}\) | \(\frac{1}{4}\) | \(\frac{1}{4}\) |
A função de probabilidade conjunta de \(Z\) e \(W\) é dada por
data.frame(
a= c(0,1,2,3),
b= c(0,0,"$\\frac{1}{8}$",0),
c= c(0,"$\\frac{1}{8}$",0,"$\\frac{1}{4}$"),
d= c("$\\frac{1}{4}$",0,0,0),
e= c(0,"$\\frac{1}{4}$",0,0)) %>%
`colnames<-`(c("$Z \\setminus W$",-2,-1,0,1)) %>%
kbl()%>%
kable_classic( html_font = "Cambria") %>%
kable_styling(bootstrap_options = c("striped","hold_position"))
\(Z \setminus W\) | -2 | -1 | 0 | 1 |
---|---|---|---|---|
0 | 0 | 0 | \(\frac{1}{4}\) | 0 |
1 | 0 | \(\frac{1}{8}\) | 0 | \(\frac{1}{4}\) |
2 | \(\frac{1}{8}\) | 0 | 0 | 0 |
3 | 0 | \(\frac{1}{4}\) | 0 | 0 |
Sejam \(X\) e \(Y\) duas variáveis aleatórias contínuas com função densidade conjunta \(f_{X,Y}\).
Definindo \(Z=X+Y\) e \(W=X-Y\) as funções densidades da soma e da diferença são dadas por: \[
f_{X+Y}(z) = \int_{-\infty}^{\infty}f(x,z-x)dx, -\infty<z<\infty.
\] \[
f_{X-Y}(w) = \int_{-\infty}^{\infty}f(w+y,y)dy, -\infty<w<\infty.
\] Em muitas aplicações \(X\) e \(Y\) são independentes e as equações () e () são definidas por: \[
f_{X+Y}(z) = \int_{-\infty}^{\infty}f_X(x)f_Y(z-x)dx, -\infty<z<\infty.
\]
\[ f_{X-Y}(w) = \int_{-\infty}^{\infty}f_X(w+y)f_Y(y)dy, -\infty<w<\infty. \] Se \(X\) e \(Y\) forem variáveis aleatórias independentes não-negativas, então \(f_{X+Y}(z) = 0\) para \(z\leq 0\) e \[ f_{X+Y}(z) = \int_{0}^{z}f_X(x)f_Y(z-x)dx, 0<z<\infty. \]
Prova:
Seja \(Z=X+Y\). Graficamente temos:
Em que \(A_z = \left\{(x,y)|x+y\leq z\right\}\). O conjunto \(A_z\) representa o semi-plano à esquerda inferior da reta \(z=x+y\). Assim, \[ \begin{array}{lll} F_Z(z) &= P(Z\leq z) = P(X+Y\leq z) = P((X,Y)\in A_z)\\ F_Z(z) &= \int\int_{A_z}f_{X,Y}(x,y)dxdy =\\ \int_{-\infty}^{\infty}\left(\int_{-\infty}^{z-x}f_{X,Y}(x,y)dy\right)dx. \end{array} \] Fazendo a mudança de variável \(y=v-x\) na integral interna temos: \[ \begin{array}{lll} F_Z(z) &= \int_{-\infty}^{\infty}\left(\int_{-\infty}^{z}f_{X,Y}(x,v-x)dv\right)dx,\\ &= \int_{-\infty}^{z}\left(\int_{-\infty}^{\infty}f_{X,Y}(x,v-x)dx\right)dv,\\ &= \int_{-\infty}^{z}g(v)dv, \end{array} \] em que \(g(v) = \int_{-\infty}^{\infty}f_{X,Y}(x,v-x)dx.\) Assim, a densidade de \(Z=X+Y\) é dada por: \[ f_{X+Y}(z) = \int_{-\infty}^{\infty}f_{X,Y}(x,z-x)dx, -\infty<z<\infty. \] Para \(W=X-Y\) a prova segue de forma análoga.
Exemplo 2: Sejam \(X\) e \(Y\) variáveis aleatórias independentes, cada uma com densidade exponencial de parâmetro \(\lambda\). Obtenha a distribuição de \(X+Y\).
Exemplo 3: Sejam \(X\) e \(Y\) variáveis aleatórias independentes, cada uma com distribuição normal padrão. Obtenha a distribuição de \(X+Y\).\
Solução: Como \(X\) e \(Y\) são independentes temos: \[ \begin{array}{llllll} f_{X+Y}(z) &= \int_{-\infty}^{\infty}f_X(x)f_Y(z-x)dx = \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}\times \frac{1}{\sqrt{2\pi}}e^{-\frac{(z-x)^2}{2}}dx,\\ &= \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}(x^2+z^2-2xz+x^2)}dx = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}(2x^2-2xz+z^2)}dx,\\ &= \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\left(x^2-2x\frac{z}{2}+\frac{z^2}{2}\right)}dx = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{\infty}\frac{e^{-\frac{z^2}{2}}}{\sqrt{2\pi}}e^{-\left(x^2-2x\frac{z}{2} \textcolor{red}{+\frac{z^2}{4} -\frac{z^2}{4}}\right)}dx, \\ &= \frac{1}{\sqrt{2\pi}}e^{-\left(\frac{z^2}{2} - \frac{z^2}{4}\right)} \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\left(x^2-2x\frac{z}{2}+\frac{z^2}{4}\right)}dx = \frac{1}{\sqrt{2\pi}}e^{-\frac{z^2}{4}} \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}e^{-\left(x-\frac{z}{2}\right)^2}dx, \\ &= \frac{1}{\sqrt{2\pi}}\frac{1}{\sqrt{2}}e^{-\frac{z^2}{4}} \int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi}}\frac{1}{\frac{1}{\sqrt{2}}}e^{-\frac{1}{2}\left(\frac{x-\frac{z}{2}}{\sqrt{1/2}}\right)^2}dx = \frac{1}{\sqrt{2\pi}}\frac{1}{\sqrt{2}}e^{-\frac{1}{2}\frac{z^2}{2}}, -\infty<z<\infty. \end{array} \] O integrando corresponde à densidade de uma normal com \(\mu=z/2\) e \(\sigma^2 = 1/2.\) Logo, a integral vale 1 e o termo restante corresponde a densidade de uma \(N(0,2)\).\\
Resultados Importantes:
Sejam \(X\) e \(Y\) duas variáveis aleatórias contínuas com densidade conjunta \(f_{X,Y}\). As funções densidades do produto e do quociente são, respectivamente, dadas por: \[
\begin{array}{ll}
f_{XY}(u) &= \int_{-\infty}^{\infty}\frac{1}{\left|x\right|}f_{X,Y}\left(x,\frac{u}{x}\right)dx\\
f_{\frac{X}{Y}}(v) &= \int_{-\infty}^{\infty}\left|y\right|f_{X,Y}(vy,y)dy.
\end{array}
\] No caso especial em que \(X\) e \(Y\) são variáveis aleatórias independentes positivas, a densidade do quociente, definida na equação (), reduz-se a \(f_{\frac{X}{Y}}(v)=0\) para \(v\leq 0\) e \[
f_{\frac{X}{Y}}(v) = \int_{0}^{\infty}yf_{X}(vy)f_{Y}(y)dy, 0<v<\infty.
\] As provas das expressões definidas em () podem ser encontradas no livro \textit{Probabilidade e Variáveis Aleatórias}'' de Marcos Nascimento Magalhães e no livro
’’ de Hoel Port Stone.
Considere o conjunto \(X_1, X_2, \ldots,X_n\) de variáveis aleatórias independentes, cujas funções de distribuição são \(F_1,F_2,\ldots,F_n\), respectivamente. As expressões da função de distribuição de \(Y_1 = \mbox{min}(X_1,X_2,\ldots,X_n)\) e \(Y_n = \mbox{max}(X_1,X_2,\ldots,X_n)\) são dadas, respectivamente, por: \[ \begin{array}{ll} F_{Y_1}(y_1) &= 1-\prod_{i=1}^{n}\left[1-F_{X_i}(y_1)\right];\\ F_{Y_n}(y_n) &= \prod_{i=1}^{n}F_{X_i}(y_n). \end{array} \]
Exemplo 4: Sejam \(X_1\) e \(X_2\) variáveis aleatórias independentes com distribuição uniforme (0,1). Qual a distribuição de \(X_{min} = \mbox{mín}(X_1,X_2)\) e \(Y_{max} = \mbox{máx}(X_1,X_2)\).
Solução: \[ f_{X_1}(x) = \left\{ \begin{array}{ll} 0,& \mbox{se } x < 0;\\ x, & \mbox{se } 0 \leq x < 1;\\ 0, & \mbox{caso contrário.} \end{array} \right. \] Análogo para \(F_{X_2}(x)\). Sendo assim:
\[ \begin{array}{lll} F_{X_{max}}(x)&=1-\prod_{i=1}^2 [1-F_{X_i}(x)]\\ &=1-\prod_{i=}^2 (1-x)\\ &=1-(1-x)^2\\ &=1-(1-2.x+x^2)\\ &=2.x-x^2 \end{array} \Rightarrow \begin{array}{lll} f_{X_{min}}(x)&=\frac{\partial F_{X_{min}}(x)}{\partial x}\\ &=2-2.x=\\ &=2(1-x).I_{(0,1)}(x) \mbox{ com o indicador de domínio!}\\ &\therefore X_{min} \sim Beta(a=1,b=2)\\ &\mbox{ basta olhar o núcleo da densidade no apêndice!} \end{array} \] Com relação ao máximo: \[ \begin{array}{lll} F_{X_{max}}(x)&=\prod_{i=1}^2 F_{X_i}(x)\\ &=\prod_{i=1}^2 x\\ &=x^2\\ \end{array} \Rightarrow \begin{array}{lll} f_{X_{max}}(x)&=\frac{\partial F_{X_{max}}(x)}{\partial x}\\ &=2.x.I_{(0,1)}(x) \mbox{ com o indicador de domínio!}\\ &\therefore X_{max} \sim Beta(a=2,b=1) \end{array} \] E as áreas sob a curva são iguais a 1!
f_min=function(x){
2*(1-x)
}
integrate(f_min,0,1)
## 1 with absolute error < 1.1e-14
f_max=function(x){
2*x
}
integrate(f_max,0,1)
## 1 with absolute error < 1.1e-14
Gráficos no R:
x = seq(0,1,0.01)
fx = dunif(x)
f_mi=dbeta(x,shape1=1,shape2=2)
f_ma=dbeta(x,shape1=2,shape2=1)
data = data.frame(x,fx,f_mi,f_ma)
a=ggplot(data, aes( x=x, y=fx)) +
geom_line(size=1.2,color="orange")+
ylim(0,1)+
labs(x="x",y="f(x)",title="densidade de X ~ U(0,1)")
b=ggplot(data, aes( x=x, y=f_mi)) +
geom_line(size=1.2,color="orange")+
labs(x="x",y="f_min(x)",title="densidade de X_min ~ Beta(1,2)")
c=ggplot(data, aes( x=x, y=f_ma)) +
geom_line(size=1.2,color="orange")+
labs(x="x",y="f_max(x)",title="densidade de X_max ~ Beta(2,1)")
grid.arrange(a, b,c, ncol = 2, nrow = 2)
Estudo de simulação: Foram gerados dois vetores de tamanhos iguais a 1000, provenientes da distribuição uniforme, foram calculados os valores mínimo e máximo para cada valor gerado, conforme vemos na tabela abaixo, e verificamos que os histogramas e as curva de densidade aproximam-se das distribuições teóricas!
set.seed(22112020)
x1=runif(1000)
x2=runif(1000)
data=data.frame(x1,x2) %>%
mutate(x_min=ifelse(x1<x2,x1,x2),
x_max=ifelse(x1<x2,x2,x1))
data %>%
head()%>%
datatable(cap="visualização dos vetores X1, X2, mínimo & máximo (somente as 6 primeiras observações")
a=data %>%
ggplot(aes( x=x1)) +
geom_histogram(aes(y=..density..), colour="black", fill="gray")+
geom_density(size=1.2,color="green") +
labs(x="x",y="f(x)",title="densidade de X_1")
b=data %>%
ggplot(aes( x=x2)) +
geom_histogram(aes(y=..density..), colour="black", fill="gray")+
geom_density(size=1.2,color="green") +
labs(x="x",y="f(x)",title="densidade de X_2")
c=data %>%
ggplot(aes( x=x_min)) +
geom_histogram(aes(y=..density..), colour="black", fill="gray")+
geom_density(size=1.2,color="green") +
labs(x="x",y="f(x)",title="densidade de X_min")
d=data %>%
ggplot(aes( x=x_max)) +
geom_histogram(aes(y=..density..), colour="gray", fill="gray")+
geom_histogram(aes(y=..density..), colour="black", fill="gray")+
geom_density(size=1.2,color="green") +
labs(x="x",y="f(x)",title="densidade de X_max")
grid.arrange(a, b,c,d, ncol = 2, nrow = 2)
Com frequência, conhecemos a distribuição de probabilidade de uma variável aleatória e estamos interessados em determinar a distribuição de alguma função dessa variável. Por exemplo, suponha que conheçamos a distribuição de \(X\) e queiramos obter a distribuição de \(Y=g(X)\). A densidade de \(Y\) pode ser calculada por derivação de \(F_Y(y)\): \[F_Y(y) = \int_{-\infty}^{y}g(w)dw.\] Nesse caso, \(g\) é a densidade da variável \(X\).
Exemplo 1: Seja \(X\) uma variável aleatória contínua com densidade \(f(x)=\frac{1}{2}I_{\left[1,3\right]}(x)\). Encontre a função distribuição e a função densidade de \(Z=e^{X}\).
Solução: Vemos que a variável \(e^X\) assume valores de \(e \approx 2.7183\) até \(e^3\approx 20.0855\):
x = seq(1,3,0.5)
z = exp(x)
data.frame(x,z) %>%
`colnames<-`(c("x","z=exp(x)"))%>%
datatable(cap="Alguns valores que X e Z assumem")
E a função de densidade acumulada de X: \[
F_X(x)=\left\{
\begin{array}{lll}
0, \mbox{ se x < 1}\\
\int_1^x \frac{1}{2}du = \left|\frac{u}{2}\right|_x - \left|\frac{u}{2}\right|_1 = \frac{x-1}{2} \mbox{ se } 1 \leq x \leq 3\\
1 \mbox{ se } x >3
\end{array}
\right.
\]
Gráficos no R:
x = seq(0,4,0.1)
fx = ifelse(x<1,0,
ifelse(x<3,1/2,0))
Fx = ifelse(x<1,0,
ifelse(x<3,1/2*(x-1),1))
data = data.frame(x=x[-length(x)],fx=fx[-length(x)], xend=x[-1], fxend=fx[-length(x)],Fx=Fx[-length(x)])
a=ggplot(data, aes( x=x, y=fx ,xend=xend,yend=fxend)) +
geom_segment(size=1.2,color="orange")+
geom_point( aes( x=1, y=0 ), shape=1, size=3,color="orange")+
geom_point( aes( x=3, y=0 ), shape=1, size=3,color="orange") +
labs(x="x",y="f(x)",title="densidade de X ~ U(0,3)")
b=ggplot(data, aes( x=x, y=Fx)) +
geom_line(size=1.2,color="orange")+
labs(x="x",y="F(x)",title="densidade acumulada de X ~ U(0,3)")
grid.arrange(a, b, ncol = 2, nrow = 1)
Pelo método da acumulada: \[ P(Z<z)=P(e^X<z)=P(X<\log(z))\\ \Rightarrow F_Z(z) = \left\{ \begin{array}{ll} 0, &\mbox{ se log(z) < 1, ou seja, z < e}\\ \frac{\log(z)-1}{2} &\mbox{ se } 1 \leq \log(z) \leq 3, \mbox{ ou seja}, e \leq z \leq e^3\\ 1, &\mbox{ caso contrário.} \end{array} \right. \] Obtendo a densidade de Y: \[ f_Z(z)=\frac{\partial F_Z(z)}{\partial z}=\frac{1}{2z}I_{[e,e^3]}(z) \mbox{ não conhecida no Apêndice Mood} \]
De fato, a área sob a curva é igual a 1:
Area=antiD(1/(2*z) ~ z)
Area(exp(3))-Area(exp(1))
## [1] 1
Gráficos no R:
z = seq(0,23,0.1)
fz = ifelse(z<exp(1),0,
ifelse(z<exp(3),1/(2*z),0))
Fz = ifelse(z<exp(1),0,
ifelse(z<exp(3),(log(z)-1)/2,1))
data = data.frame(z=z[-length(z)],fz=fz[-length(z)], zend=z[-1], fzend=fz[-length(z)],Fz=Fz[-length(z)])
a=ggplot(data, aes( x=z, y=fz ,xend=zend,yend=fzend)) +
geom_segment(size=1.2,color="orange")+
geom_point( aes( x=exp(1), y=0 ), shape=1, size=3,color="orange")+
geom_point( aes( x=exp(3), y=0 ), shape=1, size=3,color="orange") +
labs(x="x",y="f(x)",title="densidade de Z")
b=ggplot(data, aes( x=z, y=Fz)) +
geom_line(size=1.3,color="orange")+
labs(x="z",y="F(z)",title="densidade acumulada de Z")
grid.arrange(a, b, ncol = 2, nrow = 1)
Exemplo: Seja \(X\) uma variável aleatória contínua com densidade \(f\). Obtenha a densidade de uma variável aleatória \(Z=X^2\). Pelo método da acumulada: \[ \begin{array}{lll} P(Z<z)=P(X^2<z)=P(-\sqrt{z}<X<\sqrt{z})=P(X<\sqrt{z})-P(X<-\sqrt{z})\\ \Rightarrow F_Z(z) = F_X(\sqrt{z})-F_X(-\sqrt{z})\\ f_Z(z)=\frac{\partial F_Z(z)}{\partial z}=\frac{\partial F_X(\sqrt{z})}{\partial z}-\frac{\partial F_X(-\sqrt{z})}{\partial z}\\ =f_X(\sqrt{z}).\frac{\partial (\sqrt{z})}{\partial z}-f_X(-\sqrt{z}).\frac{\partial (-\sqrt{z})}{\partial z}\\ = f_X(\sqrt{z}).\frac{1}{2\sqrt{z}}+f_X(-\sqrt{z}).\frac{1}{2\sqrt{z}}\\ = \frac{1}{2\sqrt{z}} \left[f_X(\sqrt{z})+f_X(-\sqrt{z})\right] \end{array} \]
Exemplo prático considerando \(X \sim Gamma(2,4)\) A área sob a curva de Z é igual a 1:
a=2
b=4
f=function(z){
fx1=dgamma(sqrt(z),shape=a,scale=b)
fx2=dgamma(-sqrt(z),shape=a,scale=b)
1/(2*sqrt(z))*(fx1+fx2)
}
Area=integrate(f, lower = 0, upper = Inf)
Area
## 1 with absolute error < 4.5e-05
a=2
b=4
x = seq(0.01,25,0.1)
z = x^2
fx = dgamma(x,shape=a,scale=b)
fx1=dgamma(sqrt(z),shape=a,scale=b)
fx2=dgamma(-sqrt(z),shape=a,scale=b)
fz = 1/(2*sqrt(z))*(fx1+fx2)
dados=data.frame(x,z,fx,fz)
a=ggplot(dados, aes( x=x, y=fx)) +
geom_line(size=1.2,color="orange") +
labs(x="x",y="f(x)",title="densidade de X ~ Gamma(2,4)")
b=ggplot(dados, aes( x=z, y=fz)) +
geom_line(size=1.2,color="orange") +
labs(x="x",y="f(x)",title="densidade de Z=X^2")
grid.arrange(a, b, ncol = 2, nrow = 1)
Exemplo prático considerando \(X \sim U(-3,-1)\) A área sob a curva de Z é igual a 1: considere integração numérica pela praticidade!
a=-3
b=-1
f=function(z){
fz1=dunif(sqrt(z),min=a,max=b)
fz2=dunif(-sqrt(z),min=a,max=b)
1/(2*sqrt(z))*(fz1+fz2)
}
Area=integrate(f, lower = 0, upper = Inf)
Area
## 1 with absolute error < 1.2e-06
a=-3
b=-1
x = seq(-4,0,0.05)
z = seq(0,10,0.05)
fx = dunif(x,min=a,max=b)
fz1=dunif(sqrt(z),min=a,max=b)
fz2=dunif(-sqrt(z),min=a,max=b)
fz = 1/(2*sqrt(z))*(fz1+fz2)
data1 = data.frame(x=x[-length(x)],fx=fx[-length(x)], xend=x[-1], fxend=fx[-length(x)])
data2 = data.frame(z=z[-length(z)],fz=fz[-length(z)], zend=z[-1], fzend=fz[-length(z)])
a=ggplot(data1, aes( x=x, y=fx,xend=xend,yend=fxend)) +
geom_segment(size=1.2,color="orange")+
geom_point( aes( x=-3, y=0 ), shape=1, size=3,color="orange")+
geom_point( aes( x=-1, y=0), shape=1, size=3,color="orange") +
labs(x="x",y="f(x)",title="densidade de X ~ U(-3,-1)")
b=ggplot(data2, aes( x=z, y=fz,xend=zend,yend=fzend)) +
geom_segment(size=1.2,color="orange")+
geom_point( aes( x=1, y=0 ), shape=1, size=3,color="orange")+
geom_point( aes( x=9, y=0 ), shape=1, size=3,color="orange") +
labs(x="z",y="f(z)",title="densidade de Z=X^2")
grid.arrange(a, b, ncol = 2, nrow = 1)
## Warning: Removed 1 rows containing missing values (geom_segment).
Exemplo: Seja \(W\) uma variável aleatória contínua com densidade Normal \(N(0,\sigma^2)\). Obtenha a densidade da variável aleatória \(W=X^2\).
Solução: Vemos que a variável \(X^2\) assume valores positivos:
Gráficos no R para \(N(0,4)\):
media=0
desvio=2
x = seq(-10,10,0.1)
fx = dnorm(x,mean=media,sd=desvio)
Fx = pnorm(x,mean=media,sd=desvio)
dados=data.frame(x,fx,Fx)
a=ggplot(dados, aes( x=x, y=fx)) +
geom_line(size=1.2,color="orange") +
labs(x="x",y="f(x)",title="densidade de X ~ N(0,4)")
b=ggplot(dados, aes( x=x, y=Fx)) +
geom_line(size=1.2,color="orange") +
labs(x="x",y="f(x)",title="densidade acumulada de X ~ N(0,4)")
grid.arrange(a, b, ncol = 2, nrow = 1)
Pelo método da acumulada: \[ P(W<w)=P(X^2<w)=P(-\sqrt{w}<X<\sqrt{w})=P(X<\sqrt{w})-P(X<\sqrt{w})\\ \Rightarrow F_W(w) = F_X(\sqrt{w})-F_X(-\sqrt{w})\\ \mbox{ lembrando que a acumulada da normal não tem forma fechada! } \]
Mesmo assim, podemos obter a densidade de W - e verificamos que W não pode assumir valores nulos: \[ \begin{array}{ll} f_W(w)&=\frac{\partial F_W(w)}{\partial w}\\ &=\frac{\partial F_X(\sqrt{w})}{\partial w}-\frac{\partial F_X(-\sqrt{w})}{\partial w}\\ &=f_X(\sqrt{w}).\frac{\partial (\sqrt{w})}{\partial w}-f_X(-\sqrt{w}).\frac{\partial (-\sqrt{w})}{\partial w} \mbox{ e com a simetria da normal: }\\ &=f_X(\sqrt{w}).\left(\frac{1}{2\sqrt{w}}+ \frac{1}{2\sqrt{w}} \right)\\ &=\frac{1}{\sqrt{2\pi} \sigma \sqrt{w}}.\exp\left[-\frac{1}{2\sigma^2}w\right]\\ &\mbox{ não conhecida no apêndice Mood, exceto para }\sigma^2=1 \\ &\mbox{ onde temos a distribuição} X^2 \mbox{ com 1 grau de liberdade!} \end{array} \]
De fato, a área sob a curva é igual a 1:
sigma=2
f=function(w){
1/(sqrt(2*pi*w)*sigma)*exp(-1/(2*sigma^2)*w)
}
Area=integrate(f, lower = 0, upper = Inf)
Area
## 1 with absolute error < 5.2e-05
Gráficos no R considerando \(\sigma^2=4\):
media=0
desvio=2
w = seq(0.01,10,0.1)
fw = 1/(sqrt(2*pi*w)*desvio)*exp(-1/(2*desvio^2)*w)
Fw = pnorm(sqrt(w),mean=media,sd=desvio)-pnorm(-sqrt(w),mean=media,sd=desvio)
dados=data.frame(w,fw,Fw)
a=ggplot(dados, aes( x=w, y=fw)) +
geom_line(size=1.2,color="orange") +
labs(x="w",y="f(w)",title="densidade de W")
b=ggplot(dados, aes( x=w, y=Fw)) +
geom_line(size=1.2,color="orange") +
labs(x="w",y="F(w)",title="densidade acumulada de W")
grid.arrange(a, b, ncol = 2, nrow = 1)
Teorema: Seja \(\varphi\) uma função diferenciável, estritamente crescente ou estritamente decrescente em um intervalo \(I\), e sejam \(\varphi(I)\) o contradomínio de \(\varphi\) e \(\varphi^{-1}\) a função inversa de \(\varphi\). Seja \(X\) uma variável aleatória contínua de densidade \(f\) tal que \(f(x) = 0\) para \(x\notin I\). Então \(Y = \varphi(X)\) tem densidade \(g\) dada por \(g(y)=0\) para \(y\notin \varphi(I)\) e \[ g(y) = f(\varphi^{-1}(y))\left|\frac{d}{dy}\varphi^{-1}(y)\right|I_{\mathscr{D}}(y), \mathscr{D} \quad \mbox{é o conjunto domínio de Y}. \]
ou de forma equivalente: \[ g(y) = f(x)\left|\frac{dx}{dy}\right|I_{\mathscr{D}}(y), \mathscr{D} \quad \mbox{é o conjunto domínio de Y} \quad \mbox{e} \quad x = \varphi^{-1}(y). \]
Exemplo: Seja \(X\) uma variável aleatória tendo uma densidade exponencial de parâmetro \(\lambda\). Obtenha a densidade de \(Z = X^{1/\beta},\) onde \(\beta > 0.\)
Solução: Vemos que a variável \(Z\) assume somente valores positivos:
x = seq(0.1,2,0.3)
beta1=2
beta2=1/2
z1 = x^(1/beta1)
z2 = x^(1/beta2)
data.frame(x,z1,z2) %>%
`colnames<-`(c("x","z1=x^{1/beta} sendo beta=2","z2=x^{1/beta} sendo beta =1/2"))%>%
datatable(cap="Alguns valores que X e Z assumem")
Pelo método do Jacobiano: \[ \begin{array}{llll} & w=x^{\frac{1}{\beta}} \Rightarrow x=w^\beta \Rightarrow \left|\frac{dx}{dw}\right|=\beta w^{\beta-1}\\ f_W(w)& =f_X(x)\left|\frac{dx}{dw}\right|.I_{(0,\infty)}(w) \mbox{ , ou seja,}\\ & =f_X(w^\beta)\beta w^{\beta-1}.I_{(0,\infty)}(w) \\ & \mbox{ lembre-se que a função é de w então tiramos os termos x da fórmula!}\\ & = \lambda \beta w^{\beta-1} \exp(-\lambda w^{\beta}) .I_{(0,\infty)}(w) \\ &\mbox{ que corresponde a Weibull no apêndice Mood!}\\ &\therefore W \sim Weibull (\lambda,\beta) \end{array} \]
Gráficos no R considerando \(\lambda=2\) e \(\beta=2\):
lambda=2
beta=2
x= seq(0.001,2,0.01)
w= seq(0.001,2,0.01)
fx = dexp(x,rate=lambda)
fw = dweibull(w,scale=1/lambda,shape=beta)
dados=data.frame(x,w,fx,fw)
a=ggplot(dados, aes( x=x, y=fx)) +
geom_line(size=1.2,color="orange") +
labs(x="x",y="f(x)",title="densidade de X: Exp(2)")
b=ggplot(dados, aes( x=w, y=fw)) +
geom_line(size=1.2,color="orange") +
labs(x="w",y="fw",title="densidade de W: Weibull(2,2)")
grid.arrange(a, b, ncol = 2, nrow = 1)
Sejam \(X_1\) e \(X_2\) variáveis aleatórias contínuas com função densidade de probabilidade conjunta \(f_{X_1,X_2}(x_1,x_2)\). Além disso, sejam \(Y_1=g_1(x_1,x_2)\) e \(Y_2=g_2(x_1,x_2)\), tais que \(g_1\) e \(g_2\) satisfaçam as seguintes condições:
Nessas condições, pode-se mostrar que as variáveis aleatórias \(Y_1\) e \(Y_2\) são conjuntamente contínuas com função densidade conjunta dada por \[ f_{Y_1,Y_2}(y_1,y_2) = f_{X_1,X_2}(x_1,x_2)\left|J(y_1,y_2)\right|I_{\mathscr{D}}(y_1,y_2), \] em que \(x_1 = g_1^{-1}(y_1,y_2)\), \(x_2 = g_2^{-1}(y_1,y_2)\) e \(\mathscr{D}\) é o domínio de \((Y_1,Y_2)\).\
Exemplo:Sejam \(X_1\) e \(X_2\) variáveis aleatórias conjuntamente contínuas com função densidade de probabilidade \(f_{X_1,X_2}\). Sejam \(Y_1 = X_1+X_2\) e \(Y_2 = X_1-X_2\). Determine a função densidade conjunta de \(Y_1\) e \(Y_2\) em termos de \(f_{X_1,X_2}\).
Solução: Sejam \(y_1 =g_1(x_1,x_2) = x_1+x_2\) e \(y_2 = g_2(x_1,x_2) = x_1-x_2\). Então, \(x_1 = (y_1+y_2)/2\) e \(x_2 = (y_1-y_2)/2\), essas soluções são únicas e o determinante do jacobiano será dado por: \[ J(y_1,y_2) = \left| \begin{array} {lll} \frac{1}{2} & \frac{1}{2} \\ \frac{1}{2} & -\frac{1}{2} \end{array} right| = -\frac{1}{2}. \] Substituindo na equação () os valores de \(x_1\), \(x_2\) e do módulo do jacobiano temos que a densidade desejada é dada por \[ f_{Y_1,Y_2}(y_1,y_2) = \frac{1}{2}f_{X_1,X_2}\left(\frac{y_1+y_2}{2},\frac{y_1-y_2}{2}\right)I_{\mathscr{D}}(y_1,y_2). \] a) Se \(X_1\) e \(X_2\) são variáveis aleatórias exponenciais independentes com respectivos parâmetros \(\lambda_1\) e \(\lambda_2\), então
\[ f_{Y_1,Y_2}(y_1,y_2) = \left\{ \begin{array} {ll} \frac{\lambda_1\lambda_2}{2}\exp\left\{-\lambda_1\left(\frac{y_1+y_2}{2}\right) -\lambda_2\left(\frac{y_1-y_2}{2}\right)\right\}, 0<y_1<\infty \mbox{ e } -\infty<y_2<y_1;\\ 0, \mbox{ caso contrário.} \end{array} \right. \] b) Se \(X_1\) e \(X_2\) são variáveis aleatórias uniformes (0,1), qual a densidade conjunta de \((Y_1,Y_2)\)?
Quando a função densidade conjunta das \(n\) variáveis aleatórias \(X_1, X_2, \ldots, X_n\) é dada e queremos calcular a função densidade conjunta de \(Y_1, Y_2, \ldots, Y_n\), onde \[Y_1 = g_1(X_1,\ldots,X_n), \quad Y_2 = g_2(X_1,\ldots,X_n), \ldots, Y_n = g_n(X_1,\ldots,X_n),\] a abordagem é a mesma. Supomos que as equações \(y_1 = g_1(x_1,x_2,\ldots,x_n), y_2 = g_2(x_1,x_2,\ldots,x_n), \ldots, y_n = g_n(x_1,x_2,\ldots,x_n)\) tenham soluções únicas \(x_1 = g_1^{-1}(y_1,y_2,\ldots,y_n), \ldots, x_n = g_n^{-1}(y_1,y_2,\ldots,y_n)\) cuja função densidade conjunta das variáveis aleatórias \(Y_i\) é dada por \[ f_{Y_1,\ldots,Y_n}(y_1,\ldots,y_n) = f_{X_1,\ldots,X_n}(x_1,\ldots,x_n)\left|J(y_1,\ldots,y_n)\right|I_{\mathscr{D}}(y_1,\ldots,y_n), \] em que \(x_i = g_i^{-1}(y_1,\ldots,y_n), i = 1,2,\ldots,n\) e
\[ J(y_1,\ldots,y_n) = \left| \begin{array}{llll} \frac{\partial x_1}{\partial y_1} \frac{\partial x_1}{\partial y_2}\ldots \frac{\partial x_1}{\partial y_n}\\ \frac{\partial x_2}{\partial y_1} \frac{\partial x_2}{\partial y_2}\ldots \frac{\partial x_2}{\partial y_n}\\ \vdots \\ \vdots \ldots\\ \frac{\partial x_n}{\partial y_1} \frac{\partial x_n}{\partial y_2}\ldots \frac{\partial x_n}{\partial y_n} \end{array} \right| \neq 0. \]
Exemplo: Considere o vetor aleatório \(\textbf{X}\) com densidade \[f_\textbf{X}(\textbf{x}) = \lambda^3\mbox{e}^{-\lambda(x_1+x_2+x_3)}I_{(0,\infty)}(x_1)I_{(0,\infty)}(x_2)I_{(0,\infty)}(x_3), \lambda>0.\] Qual a densidade conjunta de \(\textbf{Y} = (Y_1,Y_2,Y_3)\) tal que \[ \begin{array}{lll} Y_1 &= X_1;\\ Y_2 &= X_1+X_2;\\ Y_3 &= X_1+X_2+X_3. \end{array} \]