Introdução

A teoria da probabilidade é a base sobre a qual toda a estatística é desenvolvida, fornecendo um meio para modelar populações, experimentos ou, praticamente, qualquer outra coisa que possa ser considerada como um fenômeno aleatório.

Experimentos aleatórios são aqueles dos quais não sabemos o resultado a priori, ou seja, são acontecimentos cujos resultados não podem ser previstos.

Princípios básicos da teoria da probabilidade

Quando um experimento é realizado, o resultado é um elemento do espaço amostral. Se o experimento for realizado algumas vezes, poderão ocorrer diferentes resultados a cada vez ou alguns resultados podem se repetir. Esta “frequência de ocorrência” de um resultado pode ser considerada como uma probabilidade. Resultados mais prováveis ocorrem com mais frequência.

Exemplo: jogar um dado, lançar uma moeda etc.

Espaço amostral

Definição

O espaço amostral é o conjunto de todos os possíveis resultados do experimento. Geralmente representamos esse conjunto por \(S\) ou \(\Omega\).

Exemplo: Para o lançamento de um dado de seis faces, o espaço amostral é \(S = \{1, 2, 3, 4, 5, 6\}\).

Evento

Definição

Um evento é um subconjunto do espaço amostral de um experimento aleatório. Os eventos serão denotados por letras maiúsculas.

Exemplo: Considerando novamente o exemplo de lançar um dado, podemos ter os seguintes eventos: \(A = \{2, 4, 6\}\) , \(B = \{1, 3, 5\}\) e \(C = \{4, 5, 6\}\).

Observação: O próprio espaço amostral é um evento, também conhecido como evento certo, enquanto que o conjunto \(\emptyset\) é denominado de evento impossível.

União (\(\cup\))

Definição

A união de dois conjuntos quaisquer \(A\) e \(B\) conterá todos os elementos de \(A\) e de \(B\), incluindo os elementos que são e os que não são comuns aos dois conjuntos. Um elemento \(w \in A\cup B\) se, e somente se, \(w\in A\) e/ou \(w\in B\).

Podemos generalizar para uma sequência de conjuntos \(A_1, A_2, \ldots\) da seguinte forma: \(\cup_{i=1}^{\infty}A_i=A_1\cup A_2\cup \ldots = \{w:w\in A_n\text{para algum $n$}\}\)

Exemplo: Consideremos os seguinte eventos associados ao lançamento de um dado: \(A = \{2, 4, 6\}\), \(B = \{1, 3, 5\}\) e \(C = \{4, 5, 6\}\), então \(A\cup B=\{1,2,3,4,5,6\}\) e \(A\cup C=\{2,4,5,6\}\).

Interseção (\(\cap\))

Definição

A interseção de dois conjuntos quaisquer \(A\) e \(B\) conterá os elementos comuns a \(A\) e \(B\). Um elemento \(w \in A \cap B\) se, e somente se, \(w \in A\) e \(w \in B\).

Analogamente, podemos generalizar para a sequência de conjuntos \(A_1, A_2, \ldots\) da seguinte forma: \(\cap_{i=1}^{\infty}A_i=A_1\cap A_2\cap \ldots = \{w:w\in A_n\text{para todo $n$}\}\)

Exemplo: Consideremos os seguinte eventos associados ao lançamento de um dado: \(A = \{2, 4, 6\}\), \(B = \{1, 3, 5\}\) e \(C = \{4, 5, 6\}\), então \(A\cap B=\emptyset\) e \(A\cap C=\{4,6\}\)

Complementar (\(A^c\))

O evento complementar ao evento \(A\) é o conjunto dos elementos do espaço amostral que não pertencem a \(A\). Um elemento \(w \in A^c\) se, e somente se, \(w \notin A\) e \(w \in S\).

Exemplo: Consideremos os seguinte eventos associados ao lançamento de um dado: \(A = \{2, 4, 6\}\), \(B = \{1, 3, 5\}\) e \(C = \{4, 5, 6\}\), então \(C^c = \{1,2,3\}\)


Algumas propriedades elementares das operações de união, interseção e complementar:

  1. \(A\cup S = S\)
  2. \(A\cap S = A\)
  3. \(A\cup (B\cup C) = (A\cup B) \cup C\)
  4. \(A\cap (B\cap C) = (A\cap B) \cap C\)
  5. \(A\cup (B\cap C) = (A\cup B) \cap (A\cup C)\)
  6. \(A\cap (B\cup C) = (A\cap B) \cup (A\cap C)\)
  7. \(\left( \displaystyle\bigcup_{i=1}^{\infty} A_i \right)^c = \bigcap_{i=1}^{\infty} A_{i}^c\) (Leis de De Morgan)
  8. \(\left( \displaystyle\bigcap_{i=1}^{\infty} A_i \right)^c = \bigcup_{i=1}^{\infty} A_{i}^c\) (Leis de De Morgan)

Eventos mutuamente exclusivos (ou disjuntos)

Definição

Eventos mutuamente exclusivos (ou disjuntos) são aqueles cuja ocorrência de um elimina a possibilidade de ocorrência do outro. Ou seja, dizemos que os eventos \(A\) e \(B\) são mutuamente exclusivos se \(A \cap B =\emptyset\).

\(\sigma-algebra\)

Definição

Uma família de subconjuntos de \(S\) é chamada de \(\sigma\)-álgebra, denotada por \(\Sigma\), se satisfizer as três seguintes propriedades:

  1. \(\emptyset \in \Sigma\) (o conjunto vazio é um elemento de \(\Sigma\)).
  2. Se \(A \in \Sigma\), então \(A^c \in \Sigma\) (\(\Sigma\) é fechado, sob complementação).
  3. Se \(A_1,A_2,\ldots \in \Sigma\), então \(\cup^\infty_{i=1}A_i \in \Sigma\) (\(\Sigma\) é fechado, sob uniões contáveis).

Exemplo: Se \(S=\{1,2,3\}\), então \(\Sigma\) é a seguinte sequência de \(2^3=8\) conjuntos: \(\{1\}, \{2\}, \{3\}, \{1,2\}, \{1,3\}, \{2,3\}, \{1,2,3\}\)

Probabilidade

Para cada evento \(A\) no espaço amostral \(S\) queremos associar a \(A\) um número entre zero e um que será chamado de probabilidade de \(A\), denotado por \(P(A)\). Para cada \(A \subset S\) definimos \(P(A)\) como a probabilidade de que \(A\) ocorra.

Axiomas de Probabilidade (ou Kolmogorov)

Definição

Levando em conta um espaço amostral \(S\) e uma \(\sigma\)-álgebra associada \(\Sigma\), uma função de probabilidade é uma função \(P\) com domínio \(\Sigma\) que satisfaz:

  1. \(0\leq P(A)\leq 1, \forall A \in \Sigma\)
  2. \(P(S) = 1\) e \(P(\emptyset)=0\)
  3. Se \(A_1,A_2,\ldots,\in \Sigma\) forem eventos disjuntos dois a dois (mutuamente exclusivos), então \(P(\cup^\infty_{i=1}A_i)=\sum_{i=1}^{\infty}P(A_i)\)

Exemplo: Considere o lançamento de uma moeda equilibrada, de modo que \(S=\{Ca,Co\}\).

Com o termo moeda equilibrada queremos dizer que a probabilidade de sair cara ou coroa é exatamente a mesma. Portanto, uma função de probabilidade razoável permite atribuir probabilidades iguais para cara ou coroa: \(P(\{Ca\})=P(\{Co\})\).

Como \(S=\{Ca\}\cup\{Co\}\), então \(P(S)=P(\{Ca\}\cup\{Co\})=1\), e como \(\{Ca\}\) e \(\{Co\}\) são disjuntos, então \(P(\{Ca\}\cup\{Co\})=P(\{Ca\})+P(\{Co\})\), portanto \(P(\{Ca\})+P(\{Co\})=1\implies P(\{Ca\})=P(\{Co\})=0,5\).

Desafio: No caso anterior, \(P(\{Ca\})=\frac{1}{9}\) e \(P(\{Co\})=\frac{8}{9}\) definem uma legítima função de probabilidade?

Propriedades da probabilidade

  1. \(P(A^c)=1-P(A)\)
  • Prova: \(S=A\cup A^c \implies P(S)=P(A\cup A^c)=1\). Como \(A\) e \(A^c\) são disjuntos, \(P(A\cup A^c)=P(A)+P(A^c)=1\implies P(A^c)=1-P(A)\)
  1. \(P(A\cup B)=P(A)+P(B)-P(A\cap B)\)
  • Prova: \(A\cup B=A\cup\{B\cap A^c\}\implies P(A\cup B)=P(A\cup\{B\cap A^c\})\implies P(A\cup B)=P(A)+P(\{B\cap A^c\})\implies P(A\cup B)=P(A)+P(B)-P(A\cap B)\)
  1. \(P(B\cap A^c)=P(B)-P(A\cap B)\)
  • Prova: \(B=\{B\cap A\}\cup{\{B\cap A^c\}}\implies P(B)=P(\{B\cap A\}\cup{\{B\cap A^c\}})\). Como \(\{B\cap A\}\) e \(\{B\cap A^c\}\) são disjuntos, \(P(B)=P(\{B\cap A\})+P({\{B\cap A^c\}})\implies P(B\cap A^c) = P(B)-P({\{B\cap A\}})\)
  1. Se \(A\subset B\), então \(P(A)\leq P(B)\)
  • Prova: Temos de (3) que \(P(B\cap A^c)=P(B)-P(A\cap B)\), porém se \(A\subset B \implies P(A\cap B)=P(A)\), portanto \(P(B\cap A^c)=P(B)-P(A)\geq 0\implies P(A)\leq P(B)\)
  1. \(P(A)=\sum_{i=1}^{\infty}P(A\cap C_i)\) para qualquer partição\(^\dagger\) \(C_1,C_2,\ldots\)
  • Prove!

\(^\dagger\)Se \(C_1,C_2,\ldots\) forma uma partição, \(C_i\cap C_j=\emptyset\), \(\forall i \neq j\) e \(S=\cup_{i=1}^{\infty}C_i\)

  1. \(P(\cup_{i=1}^{\infty}A_i)\leq \cup_{i=1}^{\infty}P(A_i)\) para quaisquer conjuntos \(A_1,A_2,\ldots\)
  • Prove!

Eventos equiprováveis

Se um experimento tem como espaço amostral \(S=\{A_1,\ldots,A_n\}\), com um número finito de elementos, dizemos que os eventos elementares \(\{A_i\}\) são equiprováveis, se todos tem a mesma probabilidade de ocorrer, isto é

\[P(\{A_i\})=\frac{1}{n}\]

Desta forma, podemos definir a probabilidade de um evento \(A=\{a_{j1},\ldots,a_{jk}\}\), composto por \(k\) elementos (com \(k\) menor que \(n\)), como sendo:

\[P(A)=\frac{\hbox{número de casos favoráveis a A}}{\hbox{número de casos possíveis de S}}=\frac{k}{n}\]

Exemplo: No lançamento de um dado honesto, os elementos do espaço amostral \(S = \{1, 2, 3, 4, 5, 6\}\) são equiprováveis, pois cada elemento do espaço amostral tem a mesma chance de ocorrer, ou seja, a chance de sair 1 é a mesma de sair 2, que é a mesma de sair 3, e assim por diante. Portanto,

\[P(\{1\})=P(\{2\})=P(\{3\})=P(\{4\})=P(\{5\})=P(\{6\})=\frac{1}{6}\]

Métodos de enumeração

Quando trabalhamos com espaço amostral finito e eventos equiprováveisprecisamos conhecer regras de contagem (ou enumeração) para calcularmos as probabilidades associadas aos eventos de interesse, pois nem sempre é fácil calcularmos o número de elementos do espaço amostral, ou ainda o número de elementos do evento de interesse.

  1. Regra da multiplicação: Suponha que para realizarmos uma tarefa temos que executar \(k\) tarefas separadas, sendo que a \(i\)-ésima delas pode ser realizada de \(n_i\) maneiras, \(i=1,\ldots,k\), então o trabalho todo pode ser realizado de \(n_1\times n_2\times \ldots\times n_k\) modos
  • Exemplo: Considere que você tem 4 camisetas, 3 calças, 2 meias e 2 sapatos e gostaria de montar um kit de roupas. Quantos kits possíveis você poderia considerar? \(4\times 3\times 2\times 2 = 48\) kits.
  1. Regra da adição: Suponha que para realizarmos uma tarefa temos que executar apenas uma dentre as \(k\) tarefas separadas, sendo que a \(i\)-ésima delas pode ser realizada de \(n_i\) maneiras, \(i=1,\ldots,k\), então o trabalho todo pode ser realizado de \(n_1+ n_2+ \ldots+ n_k\) modos
  • Exemplo: Considere que você tem 4 camisetas, 3 calças, 2 meias e 2 sapatos e gostaria de escolher apenas uma peça. Quantas peças possíveis você poderia considerar? \(4 + 3 + 2 + 2 = 11\) peças.

Suponha que tenhamos uma coleção \(S=\{w_1,w_2,\ldots,w_n\}\) de \(n\) objetos.

  1. Permutação: Podemos permutar estes objetos de \(n\times n-1\times \ldots\times 1=n!\) maneiras diferentes.
  • Definição: \(0!=1\)
  • Exemplo: Se tivermos os objetos \(a\), \(b\) e \(c\), podemos considerar as permutações: \(abc\), \(acb\), \(bac\), \(bca\), \(cab\) e \(cba\).
  1. Arranjo: Agora, desejamos escolher \(r\) \((\leq n)\) objetos e permutá-los. Podemos fazer isso \(n\times (n-1)\times\ldots\times(n-r+1)=\frac{n!}{(n-r)!}\) maneiras diferentes.
  • Exemplo: Na coleção de objetos \(O=\{a,b,c,d\}\), podemos formar os seguintes grupos com dois elementos: \(\{ab,ac,ad,ba,bc,bd,ca,cb,cd,da,db,dc\}\). Isto é, em um grupo de quatro elementos podemos arranjá-los de \(\frac{4!}{(4-2)!}=12\) modos.
  1. Combinação: Agora, trataremos da contagem do número de maneiras de escolher \(r\) \((\leq n)\) objetos dentre os \(n\) objetos sem considerarmos a ordem. Como o número de maneiras de alocarmos os \(n\) objetos em \(r\) compartimentos é \(\frac{n!}{(n-r)!}\), e, como temos \(r!\) formas de permutá-los, então podemos combiná-los de \(\frac{n!}{r!(n-r)!}=\binom{n}{r}\) modos.
  • Exemplo: Podemos formar os seguintes grupos com dois elementos sem considerar a ordem: \(\{ab,ac,ad,bc,bd,cd\}\). Ou seja, em uma coleção de \(4\) elementos, é possível formar \(\frac{4!}{2!(4-2)!}=6\) grupos de dois elementos.

Probabilidade condicional e independência

Até o momento um espaço amostral foi definido e todas as probabilidades foram calculadas com relação ao espaço amostral. Entretando, em muitos casos, estamos em condições de atualizar o espaço amostral com base em novas informações. Nesses casos, podemos atualizar os cálculos de probabilidade ou calcular probabilidades condicionais.

Na segunda solução do exemplo, o espaço amostral foi atualizado depois que cada carta foi retirada; foram calculadas as probabilidades condicionais.

Probabilidade condicional

Definição

Se \(A\) e \(B\) são eventos em \(S\) e \(P(B)>0\), então a probabilidade condicional de \(A\) dado \(B\), escrita como \(P(A|B)\), é

\[P(A|B)=\frac{P(A\cap B)}{P(B)}.\]

  • Observe que no cálculo acima, \(B\) se torna o espaço amostral
  • Note também que se \(A|B\) são disjuntos, então \(P(A\cap B)=0\) e neste caso \(P(A|B)=P(B|A)=0\)


Reescrevendo a definição anterior temos que: \[P(A\cap B)=P(A|B)P(B),\] no entanto \[P(B|A)=\frac{P(A\cap B)}{P(A)}\implies P(A\cap B)=P(B|A)P(A),\] assim, \[P(A|B)P(B)=P(B|A)P(A)\implies P(A|B)=\frac{P(B|A)P(A)}{P(B)}.\]

Para dois eventos quaisquer \(A\) e \(B\), podemos afirmar que \[P(B)=P(B\cap A)+P(B\cap A^c),\] portanto \[P(B)=P(B|A)P(A)+P(B|A^c)P(A^c).\]

Regra da Probabilidade Total

Definição

Suponhamos que \(A_1,A_2,\ldots,A_n\) seja uma partição do espaço amostral, e que \(B\) seja um conjunto qualquer. Então, para cada \(i=1,2,\ldots,n\)

\[P(B)=\sum_{j=1}^{n}P(B|A_j)P(A_j)\]

Regra de Bayes

Teorema

Suponhamos que \(A_1,A_2,\ldots\) seja uma partição do espaço amostral, e que \(B\) seja um conjunto qualquer. Então, para cada \(i=1,2,\ldots\)

\[P(A_i|B)=\frac{P(B|A_i)P(A_i)}{\sum_{j=1}^{\infty}P(B|A_j)P(A_j)}\]

Exemplo: No código Morse a probabilidade de um ponto ser enviado é \(\frac{3}{7}\), já a probabilidade de um traço ser enviado é \(\frac{4}{7}\). No entanto, uma falha na transmissão causa que um ponto enviado seja recebido como traço em \(\frac{1}{8}\) das vezes e vice-versa.

Pergunta: se recebermos um ponto, podemos ter certeza de que realmente foi enviado um ponto? Em outras palavrras, qual a probabilidade \(P(\text{ponto enviado}|\text{ponto recebido})\)?

Das informações extraídas do enunciado temos que:

\(P(\text{ponto enviado})=\frac{3}{7}\)

\(P(\text{traço enviado})=\frac{4}{7}\)

\(P(\text{traço recebido}|\text{ponto enviado})=\frac{1}{8}\)

\(P(\text{ponto recebido}|\text{traço enviado})=\frac{1}{8}\)

Portanto, podemos afirmar que:

\(P(\text{ponto recebido}|\text{ponto enviado})=\frac{7}{8}\)

\(P(\text{traço recebido}|\text{traço enviado})=\frac{7}{8}\)

Assim,

\(P(\text{ponto enviado}|\text{ponto recebido}) = \frac{P(\text{ponto recebido}|\text{ponto enviado})P(\text{ponto enviado})}{P(\text{ponto recebido})} = \frac{\frac{7}{8}\times\frac{3}{7}}{P(\text{ponto recebido})}\)

\(P(\text{ponto recebido}) = P(\text{ponto recebido}|\text{ponto enviado})P(\text{ponto enviado}) + P(\text{ponto recebido}|\text{traço enviado})P(\text{traço enviado}) =\)

\(\frac{7}{8}\times\frac{3}{7}+\frac{1}{8}\times\frac{4}{7}=\frac{25}{56}\)

\[P(\text{ponto enviado}|\text{ponto recebido}) = \frac{\frac{21}{56}}{\frac{25}{56}}=\frac{21}{25} = 84\%\]


Em alguns casos pode acontecer que a ocorrência de um evento específico, \(B\), não tem efeito na probabilidade de outro evento, \(A\). Simbolicamente estamos dizendo que \(P(A|B)=P(A)\). Então, \[P(B|A)=\frac{P(A|B)P(B)}{P(A)}=\frac{P(A)P(B)}{P(A)}=P(B),\] de modo que a ocorrência de \(A\) não tem efeito em \(B\), além disso \[P(B|A)P(A)=P(A\cap B)\implies P(A\cap B)=P(A)P(B),\] que assumimos como a definição de independência estatística.

Independência de dois eventos

Definição

Dois eventos \(A\) e \(B\) são estatisticamente independentes se \[P(A\cap B)=P(A)P(B)\]

Independência dos complementares

Teorema

Se \(A\) e \(B\) são eventos independentes, então, os seguintes pares também são independentes:

  1. \(A\) e \(B^c\);
  2. \(A^c\) e \(B\);
  3. \(A^c\) e \(B^c\).

Desafio: Prove o teorema.

Independência de múltiplos eventos

Definição

Uma sequência de eventos \(A_1,\ldots,A_n\) é mutuamente independente se para qualquer subsequência \(A_{i1},\ldots,A_{ik}\) tivermos \[P(\cap_{j=1}^{k}A_{ij})=\prod_{j=1}^{k}P(A_{ij})\]

Exemplo: Considere um experimento de lançar três moedas, onde \(K\) representa o resultado cara e \(C\) coroa. O espaço amostral para este experimento é: \[S=\{KKK,KKC,KCK,CKK,CCK,CKC,KCC,CCC\}.\] Vamos definir \(C_{ai},i=1,2,3\) como o evento em que o \(i\)-ésimo lançamento resulta em cara (\(K\)), portanto:

\(C_{a1}=\{KKK,KKC,KCK,KCC\}\implies P(C_{a1})=\frac{4}{8}=\frac{1}{2}\)

\(C_{a2}=\{KKK,KKC,CKK,CKC\}\implies P(C_{a2})=\frac{4}{8}=\frac{1}{2}\)

\(C_{a3}=\{KKK,KCK,CKK,CCK\}\implies P(C_{a3})=\frac{4}{8}=\frac{1}{2}\)

Podemos mostrar que os eventos \(C_{a1}\), \(C_{a2}\) e \(C_{a3}\) são mutuamente independentes? Isto é, \(P(C_{a1}\cap C_{a2}\cap C_{a3})=P(C_{a1})P(C_{a2})P(C_{a3})\)

\(\{C_{a1}\cap C_{a2}\cap C_{a3}\}=\{KKK\}\)

\(P(\{C_{a1}\cap C_{a2}\cap C_{a3}\})=P(\{KKK\})=\frac{1}{8}\)

\(P(C_{a1})P(C_{a2})P(C_{a3})=\frac{1}{2}\times\frac{1}{2}\times\frac{1}{2}=\frac{1}{8}\)

Portanto, \(P(C_{a1}\cap C_{a2}\cap C_{a3})=P(C_{a1})P(C_{a2})P(C_{a3})=\frac{1}{8}\). O que significa dizer que \(C_{a1}\), \(C_{a2}\) e \(C_{a3}\) são mutuamente independentes. Isto é, a ocorrência de uma cara em qualquer lançamento não tem nenhum efeito em qualquer um dos outros lançamentos.