A teoria da probabilidade é a base sobre a qual toda a estatística é desenvolvida, fornecendo um meio para modelar populações, experimentos ou, praticamente, qualquer outra coisa que possa ser considerada como um fenômeno aleatório.
Experimentos aleatórios são aqueles dos quais não sabemos o resultado a priori, ou seja, são acontecimentos cujos resultados não podem ser previstos.
Quando um experimento é realizado, o resultado é um elemento do espaço amostral. Se o experimento for realizado algumas vezes, poderão ocorrer diferentes resultados a cada vez ou alguns resultados podem se repetir. Esta “frequência de ocorrência” de um resultado pode ser considerada como uma probabilidade. Resultados mais prováveis ocorrem com mais frequência.
Exemplo: jogar um dado, lançar uma moeda etc.
Definição
O espaço amostral é o conjunto de todos os possíveis resultados do experimento. Geralmente representamos esse conjunto por \(S\) ou \(\Omega\).
Exemplo: Para o lançamento de um dado de seis faces, o espaço amostral é \(S = \{1, 2, 3, 4, 5, 6\}\).
Definição
Um evento é um subconjunto do espaço amostral de um experimento aleatório. Os eventos serão denotados por letras maiúsculas.
Exemplo: Considerando novamente o exemplo de lançar um dado, podemos ter os seguintes eventos: \(A = \{2, 4, 6\}\) , \(B = \{1, 3, 5\}\) e \(C = \{4, 5, 6\}\).
Observação: O próprio espaço amostral é um evento, também conhecido como evento certo, enquanto que o conjunto \(\emptyset\) é denominado de evento impossível.
Definição
A união de dois conjuntos quaisquer \(A\) e \(B\) conterá todos os elementos de \(A\) e de \(B\), incluindo os elementos que são e os que não são comuns aos dois conjuntos. Um elemento \(w \in A\cup B\) se, e somente se, \(w\in A\) e/ou \(w\in B\).
Podemos generalizar para uma sequência de conjuntos \(A_1, A_2, \ldots\) da seguinte forma: \(\cup_{i=1}^{\infty}A_i=A_1\cup A_2\cup \ldots = \{w:w\in A_n\text{para algum $n$}\}\)
Exemplo: Consideremos os seguinte eventos associados ao lançamento de um dado: \(A = \{2, 4, 6\}\), \(B = \{1, 3, 5\}\) e \(C = \{4, 5, 6\}\), então \(A\cup B=\{1,2,3,4,5,6\}\) e \(A\cup C=\{2,4,5,6\}\).
Definição
A interseção de dois conjuntos quaisquer \(A\) e \(B\) conterá os elementos comuns a \(A\) e \(B\). Um elemento \(w \in A \cap B\) se, e somente se, \(w \in A\) e \(w \in B\).
Analogamente, podemos generalizar para a sequência de conjuntos \(A_1, A_2, \ldots\) da seguinte forma: \(\cap_{i=1}^{\infty}A_i=A_1\cap A_2\cap \ldots = \{w:w\in A_n\text{para todo $n$}\}\)
Exemplo: Consideremos os seguinte eventos associados ao lançamento de um dado: \(A = \{2, 4, 6\}\), \(B = \{1, 3, 5\}\) e \(C = \{4, 5, 6\}\), então \(A\cap B=\emptyset\) e \(A\cap C=\{4,6\}\)
O evento complementar ao evento \(A\) é o conjunto dos elementos do espaço amostral que não pertencem a \(A\). Um elemento \(w \in A^c\) se, e somente se, \(w \notin A\) e \(w \in S\).
Exemplo: Consideremos os seguinte eventos associados ao lançamento de um dado: \(A = \{2, 4, 6\}\), \(B = \{1, 3, 5\}\) e \(C = \{4, 5, 6\}\), então \(C^c = \{1,2,3\}\)
Algumas propriedades elementares das operações de união, interseção e complementar:
Definição
Eventos mutuamente exclusivos (ou disjuntos) são aqueles cuja ocorrência de um elimina a possibilidade de ocorrência do outro. Ou seja, dizemos que os eventos \(A\) e \(B\) são mutuamente exclusivos se \(A \cap B =\emptyset\).
Definição
Uma família de subconjuntos de \(S\) é chamada de \(\sigma\)-álgebra, denotada por \(\Sigma\), se satisfizer as três seguintes propriedades:
Exemplo: Se \(S=\{1,2,3\}\), então \(\Sigma\) é a seguinte sequência de \(2^3=8\) conjuntos: \(\{1\}, \{2\}, \{3\}, \{1,2\}, \{1,3\}, \{2,3\}, \{1,2,3\}\)
Para cada evento \(A\) no espaço amostral \(S\) queremos associar a \(A\) um número entre zero e um que será chamado de probabilidade de \(A\), denotado por \(P(A)\). Para cada \(A \subset S\) definimos \(P(A)\) como a probabilidade de que \(A\) ocorra.
Definição
Levando em conta um espaço amostral \(S\) e uma \(\sigma\)-álgebra associada \(\Sigma\), uma função de probabilidade é uma função \(P\) com domínio \(\Sigma\) que satisfaz:
Exemplo: Considere o lançamento de uma moeda equilibrada, de modo que \(S=\{Ca,Co\}\).
Com o termo moeda equilibrada queremos dizer que a probabilidade de sair cara ou coroa é exatamente a mesma. Portanto, uma função de probabilidade razoável permite atribuir probabilidades iguais para cara ou coroa: \(P(\{Ca\})=P(\{Co\})\).
Como \(S=\{Ca\}\cup\{Co\}\), então \(P(S)=P(\{Ca\}\cup\{Co\})=1\), e como \(\{Ca\}\) e \(\{Co\}\) são disjuntos, então \(P(\{Ca\}\cup\{Co\})=P(\{Ca\})+P(\{Co\})\), portanto \(P(\{Ca\})+P(\{Co\})=1\implies P(\{Ca\})=P(\{Co\})=0,5\).
Desafio: No caso anterior, \(P(\{Ca\})=\frac{1}{9}\) e \(P(\{Co\})=\frac{8}{9}\) definem uma legítima função de probabilidade?
\(^\dagger\)Se \(C_1,C_2,\ldots\) forma uma partição, \(C_i\cap C_j=\emptyset\), \(\forall i \neq j\) e \(S=\cup_{i=1}^{\infty}C_i\)
Se um experimento tem como espaço amostral \(S=\{A_1,\ldots,A_n\}\), com um número finito de elementos, dizemos que os eventos elementares \(\{A_i\}\) são equiprováveis, se todos tem a mesma probabilidade de ocorrer, isto é
\[P(\{A_i\})=\frac{1}{n}\]
Desta forma, podemos definir a probabilidade de um evento \(A=\{a_{j1},\ldots,a_{jk}\}\), composto por \(k\) elementos (com \(k\) menor que \(n\)), como sendo:
\[P(A)=\frac{\hbox{número de casos favoráveis a A}}{\hbox{número de casos possíveis de S}}=\frac{k}{n}\]
Exemplo: No lançamento de um dado honesto, os elementos do espaço amostral \(S = \{1, 2, 3, 4, 5, 6\}\) são equiprováveis, pois cada elemento do espaço amostral tem a mesma chance de ocorrer, ou seja, a chance de sair 1 é a mesma de sair 2, que é a mesma de sair 3, e assim por diante. Portanto,
\[P(\{1\})=P(\{2\})=P(\{3\})=P(\{4\})=P(\{5\})=P(\{6\})=\frac{1}{6}\]
Quando trabalhamos com espaço amostral finito e eventos equiprováveisprecisamos conhecer regras de contagem (ou enumeração) para calcularmos as probabilidades associadas aos eventos de interesse, pois nem sempre é fácil calcularmos o número de elementos do espaço amostral, ou ainda o número de elementos do evento de interesse.
Suponha que tenhamos uma coleção \(S=\{w_1,w_2,\ldots,w_n\}\) de \(n\) objetos.
Até o momento um espaço amostral foi definido e todas as probabilidades foram calculadas com relação ao espaço amostral. Entretando, em muitos casos, estamos em condições de atualizar o espaço amostral com base em novas informações. Nesses casos, podemos atualizar os cálculos de probabilidade ou calcular probabilidades condicionais.
Na segunda solução do exemplo, o espaço amostral foi atualizado depois que cada carta foi retirada; foram calculadas as probabilidades condicionais.
Definição
Se \(A\) e \(B\) são eventos em \(S\) e \(P(B)>0\), então a probabilidade condicional de \(A\) dado \(B\), escrita como \(P(A|B)\), é
\[P(A|B)=\frac{P(A\cap B)}{P(B)}.\]
Reescrevendo a definição anterior temos que: \[P(A\cap B)=P(A|B)P(B),\] no entanto \[P(B|A)=\frac{P(A\cap B)}{P(A)}\implies P(A\cap B)=P(B|A)P(A),\] assim, \[P(A|B)P(B)=P(B|A)P(A)\implies P(A|B)=\frac{P(B|A)P(A)}{P(B)}.\]
Para dois eventos quaisquer \(A\) e \(B\), podemos afirmar que \[P(B)=P(B\cap A)+P(B\cap A^c),\] portanto \[P(B)=P(B|A)P(A)+P(B|A^c)P(A^c).\]
Definição
Suponhamos que \(A_1,A_2,\ldots,A_n\) seja uma partição do espaço amostral, e que \(B\) seja um conjunto qualquer. Então, para cada \(i=1,2,\ldots,n\)
\[P(B)=\sum_{j=1}^{n}P(B|A_j)P(A_j)\]
Teorema
Suponhamos que \(A_1,A_2,\ldots\) seja uma partição do espaço amostral, e que \(B\) seja um conjunto qualquer. Então, para cada \(i=1,2,\ldots\)
\[P(A_i|B)=\frac{P(B|A_i)P(A_i)}{\sum_{j=1}^{\infty}P(B|A_j)P(A_j)}\]
Exemplo: No código Morse a probabilidade de um ponto ser enviado é \(\frac{3}{7}\), já a probabilidade de um traço ser enviado é \(\frac{4}{7}\). No entanto, uma falha na transmissão causa que um ponto enviado seja recebido como traço em \(\frac{1}{8}\) das vezes e vice-versa.
Pergunta: se recebermos um ponto, podemos ter certeza de que realmente foi enviado um ponto? Em outras palavrras, qual a probabilidade \(P(\text{ponto enviado}|\text{ponto recebido})\)?
Das informações extraídas do enunciado temos que:
\(P(\text{ponto enviado})=\frac{3}{7}\)
\(P(\text{traço enviado})=\frac{4}{7}\)
\(P(\text{traço recebido}|\text{ponto enviado})=\frac{1}{8}\)
\(P(\text{ponto recebido}|\text{traço enviado})=\frac{1}{8}\)
Portanto, podemos afirmar que:
\(P(\text{ponto recebido}|\text{ponto enviado})=\frac{7}{8}\)
\(P(\text{traço recebido}|\text{traço enviado})=\frac{7}{8}\)
Assim,
\(P(\text{ponto enviado}|\text{ponto recebido}) = \frac{P(\text{ponto recebido}|\text{ponto enviado})P(\text{ponto enviado})}{P(\text{ponto recebido})} = \frac{\frac{7}{8}\times\frac{3}{7}}{P(\text{ponto recebido})}\)
\(P(\text{ponto recebido}) = P(\text{ponto recebido}|\text{ponto enviado})P(\text{ponto enviado}) + P(\text{ponto recebido}|\text{traço enviado})P(\text{traço enviado}) =\)
\(\frac{7}{8}\times\frac{3}{7}+\frac{1}{8}\times\frac{4}{7}=\frac{25}{56}\)
\[P(\text{ponto enviado}|\text{ponto recebido}) = \frac{\frac{21}{56}}{\frac{25}{56}}=\frac{21}{25} = 84\%\]
Em alguns casos pode acontecer que a ocorrência de um evento específico, \(B\), não tem efeito na probabilidade de outro evento, \(A\). Simbolicamente estamos dizendo que \(P(A|B)=P(A)\). Então, \[P(B|A)=\frac{P(A|B)P(B)}{P(A)}=\frac{P(A)P(B)}{P(A)}=P(B),\] de modo que a ocorrência de \(A\) não tem efeito em \(B\), além disso \[P(B|A)P(A)=P(A\cap B)\implies P(A\cap B)=P(A)P(B),\] que assumimos como a definição de independência estatística.
Definição
Dois eventos \(A\) e \(B\) são estatisticamente independentes se \[P(A\cap B)=P(A)P(B)\]
Teorema
Se \(A\) e \(B\) são eventos independentes, então, os seguintes pares também são independentes:
Desafio: Prove o teorema.
Definição
Uma sequência de eventos \(A_1,\ldots,A_n\) é mutuamente independente se para qualquer subsequência \(A_{i1},\ldots,A_{ik}\) tivermos \[P(\cap_{j=1}^{k}A_{ij})=\prod_{j=1}^{k}P(A_{ij})\]
Exemplo: Considere um experimento de lançar três moedas, onde \(K\) representa o resultado cara e \(C\) coroa. O espaço amostral para este experimento é: \[S=\{KKK,KKC,KCK,CKK,CCK,CKC,KCC,CCC\}.\] Vamos definir \(C_{ai},i=1,2,3\) como o evento em que o \(i\)-ésimo lançamento resulta em cara (\(K\)), portanto:
\(C_{a1}=\{KKK,KKC,KCK,KCC\}\implies P(C_{a1})=\frac{4}{8}=\frac{1}{2}\)
\(C_{a2}=\{KKK,KKC,CKK,CKC\}\implies P(C_{a2})=\frac{4}{8}=\frac{1}{2}\)
\(C_{a3}=\{KKK,KCK,CKK,CCK\}\implies P(C_{a3})=\frac{4}{8}=\frac{1}{2}\)
Podemos mostrar que os eventos \(C_{a1}\), \(C_{a2}\) e \(C_{a3}\) são mutuamente independentes? Isto é, \(P(C_{a1}\cap C_{a2}\cap C_{a3})=P(C_{a1})P(C_{a2})P(C_{a3})\)
\(\{C_{a1}\cap C_{a2}\cap C_{a3}\}=\{KKK\}\)
\(P(\{C_{a1}\cap C_{a2}\cap C_{a3}\})=P(\{KKK\})=\frac{1}{8}\)
\(P(C_{a1})P(C_{a2})P(C_{a3})=\frac{1}{2}\times\frac{1}{2}\times\frac{1}{2}=\frac{1}{8}\)
Portanto, \(P(C_{a1}\cap C_{a2}\cap C_{a3})=P(C_{a1})P(C_{a2})P(C_{a3})=\frac{1}{8}\). O que significa dizer que \(C_{a1}\), \(C_{a2}\) e \(C_{a3}\) são mutuamente independentes. Isto é, a ocorrência de uma cara em qualquer lançamento não tem nenhum efeito em qualquer um dos outros lançamentos.