Conceito Bayesiano de Probabilidade

O método frequentista requer sempre frequências de eventos ocorridos, o modelo bayesiano, no entanto, trata de probabilidades em qualquer situação. Significa afirmar que, em termos bayesianos, a probabilidade é entendida como uma medida de plausibilidade - lógica indutiva.

Assim, a probabilidade indutiva implica em avaliar proposições. Ex.: Em locais de pesca, as redes podem capturar tartarugas e golfinhos, onde a captura de qualquerr uma das espécies é tratada como captura acidental. A partir disso podem ser definidas as seguintes proposições:

T: Uma tartaruga é capturada
A: Ocorre uma captura acidental.
F: uma tartaruga fêmea é capturada.

Se ao retirar a rede, percebe-se que uma tartaruga foi capturada, logo T é verdadeiro e deduz-se que A também é verdadeiro e F é plausível.

T: Verdadeira \(\to\) A: Verdadeira (dedução)
A: Verdadeira \(\to\) A é incompleta pata T

No segundo caso, a informação é incompleta para conclusão de argumentos dedutivos.

Estes elementos já permitem a elaboração de algumas operações lógicas como:

C: Ao menos um dos eventos R ou F é verdadeiro - C = T + F. D: Os eventos T e F são simultaneamente verdadeiros - D = T * F.
E: T e F são simultaneamente falsos - E = T’ * F’.

A + B: União lógica entre A e B \(\therefore\) ao menos uma verdadeira
AB = Produto lógico de A e B \(\therefore\) ambas verdadeiras
A’ = Complemento de A \(\therefore\) A é falsa
A\(\to\)B = A implica em B \(\therefore\) B é dedutível da A
A = B \(\therefore\) A equivale a B

Desideratos

  1. Níveis de plausibilidade são dados sempre por números reais
  2. existe correspondência com o senso comum
  3. há consistência nas medições de plausibilidade

\[P(E|H)\] Entendido como probabilidade de E dado H (condicionado por H). Assim a incerteza sobre E é condicionada à informação sobre H.

\[P(E|H_j) = \begin{cases} E \equiv "Hoja\ haverá\ chuva\ forte\ após\ ao\ meio-dia" \\ H_1 \equiv "A\ previsão\ do\ tempo\ informa\ sobre\ chuva\ após\ ao\ meio-dia" \\ H_2 \equiv "A\ observação\ do\ céu\ às\ 11:30\ sugere\ chuva\ após\ ao\ meio-dia" \end{cases} \] \[\therefore P(E|H_1) \neq P(E|H_2)\]

Eventos Exclusivos: A e B são exclusivos sob H se não pudem ser verdadeiros simultaneamente.
Eventos Exaustivos: A e B são exaustivos se forem finitos, ou seja, comportarem todos desfechos possíveis.
Eventos Independentes: Um evento A é independente de B, se a probabilidade \(P(A|H)\) permanecer inalterada diante da ocorrência de B.

Leis de Probabilidade

Lei da convexidade: A probabilidade de um evento qualquer está contida no intervalo [0, 1]. \[1 \le P(E|H) \le 1 \\ P(H|H) = 1 \,e\,P(H'|H) = 0\] Lei da aditividade: Se \(E_1\) e \(E_2\) são eventos exclusivos sob H, então: \[P(E_1+E_2|H) = P(E_1|H)+ P(E_1|E_2H)\] Lei do Produto: Se \(E_1\) e \(E_2\) são eventos quaisquer, então a probabilidade condicionada a H é um produto lógico: \[P(E_1E_2|H) = P(E_1|H)*P(E_2|E_1H) \\ P(E_1E_2|H) = P(E_1|H)*P(E_2|H) \to \,se\,independentes\]

Princípio da Indiferença: Se um conjunto de eventos sob H são exclusivos e exaustivos, a ordem de arranjo dos mesmos é arbitrária, não afetando o cálculo de probabilidades.
\[P(E_i|H) = \frac{1}{n} \forall\ i = 1,..., n\] Assim, se um evento A for constituido como \(A={E_1+...+E_n}\) com \(m \le n\) a probabilidade sob H será dada por:

\[P(A|H) = \frac{m}{n}, \forall\ m < n\] Experimento de Calibração: Padrão urna, o padrão urna é um experimento de referência para estimar uma proposição de interesse. Nesse experimento a primeira etapa consiste em descrever o padrão urna, destacando a proporcão de cada evento de um \(n\) total com P = 1, e A = 1-B e B = 1-A. \[P(A|H) = \frac{1-B}{n} = \frac{A}{n}\]

Teorema da Probabilidade Total

Exemplo do livro de Kinas & Andrade: Uma ecologista visita lagos em busca de uma espécie de sapos. O objetivo é encontrar sapos para um experimento. O método é por inspeção simples. Para tanto serão sorteados 30 lagos locais para uma busca ativa pelos sapos da espécie em questão. Esta busca deverá ter duração de 20 minutos, observado inclusive o coaxar dos sapos. Para calcular a probabilidade de descoberta, alguns fatos devem ser considerados. os lagos em questão são classificados em três categorias em função de seu tipo de vegetação:

\[lagos = \begin{cases} P(Lago\ Tipo_1) = 0.33 \\ P(Lago\ Tipo_2) = 0.5 \\ P(Lago\ Tipo_3) = 0.17 \end{cases} \] Note que a detecção só é possível quando a espécie habita o lago, a literatura indica que os sapos estão presentes nos diferentes tipos de lago na seguinte proporção:

\[Presente = \begin{cases} P(Presente\ Lago\ Tipo_1) = 0.8 \\ P(Presente\ Lago\ Tipo_2) = 0.5 \\ P(Presente\ Lago\ Tipo_3) = 0.1 \end{cases} \]

Embora presentes nos lagos, sua detecção não é um evento certo, assim, a probabilidade de detecção quando presente é dada por:

\[Descoberta = \begin{cases} P(Detecção\ Lago\ Tipo_1) = 0.6 \\ P(Detecção\ Lago\ Tipo_2) = 0.7 \\ P(Detecção\ Lago\ Tipo_3) = 0.9 \end{cases} \]

Teorema da probabilidade Total: Seja \({E_j; j=1,...,m}\) um conjunto de m eventos exclusivos e exaustivos sob H, e seja A outro evento qualquer. A probabilidade \(P(A|H)\) pode ser rescrita incluindo os \(E_j\). \[p(A|H) = \sum_{j=1}^{m} P(A|E_jH)*P(E_j|H)\] Retomando o exemplo:
30 Lagos
Inspeção simples
D \(\equiv\) a espécie é detectada
V \(\equiv\) a espécie está presente
Calcular a probabilidade de não detecção D’.
\[P(D'|H)\]

modelo = matrix(c(1,2,3,0.33,0.5,0.17,0.8,0.5,0.1,0.6,0.7,0.9),3, 4)
modelo1 = as.data.frame(modelo)
names(modelo1) = c("j", "P(Lj)", "P(V|Lj)", "P(D|VLj)")
modelo1

P(Lj) \(\equiv\) chance de encontrar determinada vegetação
P(V|Lj) \(\equiv\) chance do sapo viver no lago
P(D|VLj) \(\equiv\) eficiência de amostragem (detecção)

\[p(D|H) = \sum_{j=1}^{6} P(D|VL_i)*P(V|L_j)*P(L_i)\]

apply(modelo[, 2:4], 1, prod)
## [1] 0.1584 0.1750 0.0153
sum(apply(modelo[, 2:4], 1, prod))
## [1] 0.3487

\[\therefore p(D'|H)\]

1-sum(apply(modelo[, 2:4], 1, prod))
## [1] 0.6513

Teorema de Bayes