Inferência Bayesiana
IME - UFU
16 de março de 2026
A teoria da decisão é uma das possíveis formas de embasar a inferência bayesiana. Sob essa abordagem, considera-se uma função de perda (ou função de utilidade) que quantifica numericamente as consequências de sua decisão para um dado valor do parâmetro.
d \in \mathcal{D}: decisão; uma particular afirmação, por exemplo, sobre o parâmetro de interesse. No contexto inferencial, uma decisão pode ser uma estimativa (pontual ou intervalar) para \theta ou a escolha de uma hipótese específica em um teste de hipóteses.
\mathcal{D}: espaço de decisões; conjunto de todas as possíveis decisões (afirmações).
\theta: estado da natureza; quantidade desconhecida ou parâmetro, no contexto de inferência estatística.
\Theta: espaço dos estados da natureza; espaço paramétrico.
L: \mathcal{D} \times \Theta \longrightarrow \mathbb{R}: função de perda; L(d, \theta) que representa o prejuízo de uma decisão d quando o estado da natureza é \theta.
Suponha que você está saindo de casa pela manhã e precisa tomar uma importante decisão: levar ou não seu guarda-chuva.
\mathcal{D} = \{G, \bar{G}\}, em que G: levar guarda-chuva.
\Theta = \{C, \bar{C}\}, em que C: chove durante o dia.
Suponha que carregar o guarda-chuva é algo que não lhe agrada. Por outro lado, você odeia ficar molhado e acredita que a pior situação seria não levá-lo e tomar chuva. Mesmo se chover, você ficará incomodado se levar o guarda-chuva pois, além de tê-lo carregado, voltou para casa com o tênis molhado. Note que, nessas circunstâncias, o cenário preferido por você seria não levar o guarda-chuva e não chover.
Para quantificar suas preferências, considere uma função de perda L : \mathcal{D} \times \Theta \longrightarrow \mathbb{R}, de modo que, quanto mais algum cenário lhe gera incômodo, maior sua perda. Um exemplo é apresentado a seguir:
| Decisão | C | \bar{C} |
|---|---|---|
| G | 2 (ruim) | 1 (bom) |
| \bar{G} | 3 (pior) | 0 (melhor) |
| P(\theta) | p | 1-p |
Para cada decisão d \in \mathcal{D}, é possível calcular o valor esperado da função de perda ((perda esperada ou risco da decisão d contra a priori P) como:
\rho(d) = E[L(d, \theta)].
No exemplo, temos:
Uma máquina pode estar regulada ou desregulada. Caso a máquina esteja regulada, ela produz componentes com uma taxa de falha de 5%. Caso a máquina esteja desregulada, ela produz componentes com uma taxa de falha de 20%. Uma amostra de 100 produtos é selecionada e 9 deles são defeituosos.
Sejam X_1, \dots, X_n as indicadoras de que cada peça amostrada é defeituosa e \theta é a taxa de falha atual da máquina, \theta \in \{5\%, 20\%\}. Consideramos que, dado \theta, X_1, \dots, X_n são i.i.d. e \sum_{i=1}^{100} X_i | \theta \sim \text{Binomial}(100, \theta).
Podemos estar interessados em testar a hipótese de que a máquina está regulada contra a hipótese de que ela está desregulada. Neste caso, H_0 = \{\theta = 5\%\} e H_1 = \{\theta = 20\%\}.
Também considere que, a priori, P(H0) = P(H1) = 0.5, e o erro de tipo I é considerado 2 vezes menos grave que o erro tipo II.