class: center, middle, inverse, title-slide .title[ # Aula 1 - Introdução à Probabilidade ] .subtitle[ ## ITC020 / ITA059 – UFAM/ICET ] .author[ ### Prof. Hidelbrando Ferreira Rodrigues ] .institute[ ### Universidade Federal do Amazonas – ICET ] .date[ ### 10/03/2026 ] --- class: inverse, center, middle # Aula 1 ## Introdução à Probabilidade ### Prof. Hidelbrando Ferreira Rodrigues #### UFAM -- ICET -- Itacoatiara, AM --- ## Roteiro da Aula 1 1. Motivação: por que Probabilidade em Engenharia/TI? 2. Conceitos básicos: - Experimento aleatório - Espaço amostral `\(\Omega\)` - Evento e operações com eventos 3. Definição clássica e frequentista de probabilidade 4. Axiomas de Kolmogorov e propriedades 5. Probabilidade condicional, independência, regra do produto 6. Probabilidade total e Teorema de Bayes *(se o tempo permitir — continuação na Aula 2)* 7. Atividade com dados / simulação em R 8. Ticket de saída e preparação para a Aula 2 --- ## Objetivos da Aula Ao final desta aula, você será capaz de: - Compreender a relevância da Probabilidade e Estatística para decisões em tecnologia e engenharia - Diferenciar experimento aleatório, espaço amostral e evento - Aplicar a definição clássica de probabilidade em situações simples - Interpretar probabilidade numa visão frequentista (a partir de dados ou simulação) - Utilizar formalmente probabilidade condicional, regra do produto, probabilidade total e Teorema de Bayes em exemplos simples --- ## Por que estudar Probabilidade? > *"Como transformar incerteza em decisão fundamentada em sistemas, produtos e dados digitais?"* .center[### Probabilidade é a linguagem formal da incerteza] - **Tomada de decisão sob incerteza** — sistemas de recomendação, filtros de spam - **Avaliação de riscos** — disponibilidade de servidores, SLAs - **Base de Machine Learning e IA** — naive Bayes, redes neurais, modelos generativos - **Testes A/B e experimentos** — avaliação de produtos e features digitais --- ## O que é Probabilidade? .pull-left[ A **probabilidade** é uma medida numérica da **chance** de ocorrência de um evento. ### Interpretações - **Clássica:** casos igualmente prováveis - **Frequentista:** frequência relativa em muitas repetições - *(Mais à frente: interpretação Bayesiana)* Nesta aula: - Probabilidade clássica - Probabilidade frequentista ] .pull-right[ <img src="Aula-1-–-Introdução-à-Probabilidade_files/figure-html/escala-prob-1.png" alt="" width="396" /> ] --- ## Experimento Aleatório Um experimento cujo resultado **não pode ser previsto com certeza** antes de sua realização, mas cujo conjunto de resultados possíveis é conhecido. **Exemplos:** - Lançar uma moeda - Lançar um dado - Tempo de resposta de um servidor web - Número de requisições simultâneas em um sistema - Número de defeitos em um lote de produção --- ## Espaço Amostral `\(\Omega\)` O **espaço amostral** `\(\Omega\)` é o conjunto de **todos os resultados possíveis** de um experimento aleatório. | Experimento | Espaço Amostral `\(\Omega\)` | |-----------------------------|------------------------------------------------------| | Lançar uma moeda | `\(\Omega = \{\text{cara}, \text{coroa}\}\)` | | Lançar um dado | `\(\Omega = \{1,2,3,4,5,6\}\)` | | Número de requisições/s | `\(\Omega = \{0,1,2,\dots\}\)` | | Tempo de resposta (s) | `\(\Omega = \{t \in \mathbb{R} : t > 0\}\)` | --- ## Eventos Um **evento** `\(A\)` é qualquer subconjunto do espaço amostral `\(\Omega\)`. - Ex.: no lançamento de um dado, - `\(A =\)` "sair par" `\(= \{2,4,6\}\)` - `\(B =\)` "sair número maior que 4" `\(= \{5,6\}\)` ### Operações com Eventos | Operação | Notação | Significado | |--------------|-------------|-----------------------| | União | `\(A \cup B\)` | `\(A\)` **ou** `\(B\)` ocorre | | Interseção | `\(A \cap B\)` | `\(A\)` **e** `\(B\)` ocorrem | | Complemento | `\(A^c\)` | `\(A\)` **não** ocorre | --- ## Operações com Eventos — Diagrama de Venn <img src="Aula-1-–-Introdução-à-Probabilidade_files/figure-html/venn-3paineis-1.png" alt="" width="792" style="display: block; margin: auto;" /> --- ## Definição Clássica de Probabilidade .pull-left[ Se todos os resultados em `\(\Omega\)` são **equiprováveis**: $$ P(A) = \frac{\text{casos favoráveis a } A}{\text{casos possíveis em } \Omega} $$ com `\(0 \leq P(A) \leq 1\)`. **Exemplo:** dado honesto, evento `\(A =\)` "sair par" `$$P(A) = \frac{|\{2,4,6\}|}{|\{1,2,3,4,5,6\}|} = \frac{3}{6} = \frac{1}{2}$$` ] .pull-right[ <img src="Aula-1-–-Introdução-à-Probabilidade_files/figure-html/dado-classico-1.png" alt="" width="374.4" /> ] --- ## Axiomas de Kolmogorov A probabilidade `\(P(\cdot)\)` satisfaz os três axiomas: 1. **Não negatividade:** `\(P(A) \geq 0\)` para todo evento `\(A\)` 2. **Normalização:** `\(P(\Omega) = 1\)` 3. **$\sigma$-aditividade (aditividade contável):** Se `\(A_1, A_2, \ldots\)` são eventos **mutuamente exclusivos dois a dois** (`\(A_i \cap A_j = \emptyset\)` para `\(i \neq j\)`), então `$$P\!\left(\bigcup_{i=1}^{\infty} A_i\right) = \sum_{i=1}^{\infty} P(A_i)$$` > O caso de dois eventos disjuntos, `\(P(A \cup B) = P(A) + P(B)\)`, é um **caso especial** desse axioma. --- ## Propriedades Importantes A partir dos axiomas: - `\(P(\emptyset) = 0\)` - `\(P(A^c) = 1 - P(A)\)` - `\(0 \leq P(A) \leq 1\)` - Se `\(A \subset B\)`, então `\(P(A) \leq P(B)\)` ### Regra da Adição (caso geral) $$ P(A \cup B) = P(A) + P(B) - P(A \cap B) $$ --- ## Probabilidade Frequentista Em experimentos repetidos independentemente, a frequência relativa de `\(A\)` converge para `\(P(A)\)`: $$ P(A) \approx \frac{\text{número de vezes que }A\text{ ocorreu}}{\text{número total de repetições}} $$ à medida que o número de repetições cresce. > Este comportamento de convergência é garantido formalmente pela **Lei dos Grandes Números**, que veremos mais adiante no curso. --- ## Lei dos Grandes Números — Convergência Visual <img src="Aula-1-–-Introdução-à-Probabilidade_files/figure-html/lgn-conv-1.png" alt="" width="792" style="display: block; margin: auto;" /> --- ## Simulando Lançamentos de Moeda ``` r set.seed(2847) n <- 100 lanc <- sample(c(1, 0), n, replace = TRUE, prob = c(0.5, 0.5)) df_sim <- data.frame(i = 1:n, freq = cumsum(lanc) / seq_len(n)) ggplot(df_sim, aes(x = i, y = freq)) + geom_line(color = "#0072B2", linewidth = 1) + geom_hline(yintercept = 0.5, linetype = "dashed", color = "#D73027") + annotate("text", x = 90, y = 0.54, label = "P = 0,5", color = "#D73027", size = 4, fontface = "bold") + labs(x = "Lançamento", y = "Freq. relativa de cara") + ylim(0, 1) + theme_minimal(base_size = 13) ``` <img src="Aula-1-–-Introdução-à-Probabilidade_files/figure-html/sim-moeda-1.png" alt="" width="720" /> --- ## Probabilidade Condicional — Definição Formal .pull-left[ Sejam `\(A\)` e `\(B\)` eventos em `\(\Omega\)`, com `\(P(B) > 0\)`. A **probabilidade condicional** de `\(A\)` dado `\(B\)`: `$$P(A \mid B) = \frac{P(A \cap B)}{P(B)}$$` - Mede a chance de `\(A\)` ocorrer **sabendo que `\(B\)` já ocorreu** - `\(A \mapsto P(A \mid B)\)` também satisfaz os axiomas de Kolmogorov > **Intuição:** ao saber que `\(B\)` ocorreu, o espaço amostral **se reduz** a `\(B\)`. ] .pull-right[ <img src="Aula-1-–-Introdução-à-Probabilidade_files/figure-html/cond-venn-1.png" alt="" width="374.4" /> ] --- ## Propriedades de `\(P(A \mid B)\)` Se `\(P(B) > 0\)`: 1. `\(0 \leq P(A \mid B) \leq 1\)` 2. `\(P(\Omega \mid B) = 1\)` 3. Se `\(A_1,A_2,\dots\)` são disjuntos dois a dois, então `$$P\!\Big(\bigcup_i A_i \,\Big|\, B\Big) = \sum_i P(A_i \mid B)$$` Além disso: - Se `\(A \subseteq C\)`, então `\(P(A \mid B) \leq P(C \mid B)\)` - `\(P(A^c \mid B) = 1 - P(A \mid B)\)` --- ## Regra do Produto (Multiplicação) Da definição de probabilidade condicional: `$$P(A \cap B) = P(B)\,P(A \mid B) = P(A)\,P(B \mid A)$$` Essa é a **regra do produto** — útil para calcular probabilidades conjuntas a partir de probabilidades condicionais. Para três eventos `\(A,B,C\)` com probabilidades positivas: `$$P(A \cap B \cap C) = P(A)\,P(B \mid A)\,P(C \mid A \cap B)$$` --- ## Independência .pull-left[ Dois eventos `\(A\)` e `\(B\)` são **independentes** se: `$$P(A \cap B) = P(A)\,P(B)$$` Equivalentemente: `$$P(A \mid B) = P(A) \quad \text{e} \quad P(B \mid A) = P(B)$$` > A ocorrência de `\(B\)` **não altera** a chance de `\(A\)`. **Exemplo:** dois lançamentos de moeda são independentes — o resultado do 1º não afeta o 2º. ] .pull-right[ <img src="Aula-1-–-Introdução-à-Probabilidade_files/figure-html/indep-grid-1.png" alt="" width="331.2" /> ] --- ## Exemplo – Regra do Produto Em um sistema, 30% das requisições são **via mobile** e 70% **via desktop**. - `\(M =\)` "requisição via mobile", `\(P(M) = 0{,}3\)` - `\(D =\)` "requisição via desktop", `\(P(D) = 0{,}7\)` Taxa de erro: - `\(P(\text{erro} \mid M) = 0{,}04\)` - `\(P(\text{erro} \mid D) = 0{,}01\)` Probabilidade de uma requisição ser via mobile **e** ter erro: `$$P(\text{erro} \cap M) = P(M)\,P(\text{erro} \mid M) = 0{,}3 \cdot 0{,}04 = 0{,}012$$` --- ## Partição do Espaço Amostral Uma família de eventos `\(B_1,\dots,B_n\)` é uma **partição de `\(\Omega\)`** se: 1. `\(B_i \cap B_j = \emptyset\)`, para `\(i \neq j\)` (mutuamente exclusivos); 2. `\(\displaystyle \bigcup_{i=1}^n B_i = \Omega\)` (cobrem todo o espaço); 3. `\(P(B_i) > 0\)` para todo `\(i\)`. Nesse caso, qualquer evento `\(A\)` pode ser "decomposto" em: `$$A = \bigcup_{i=1}^n (A \cap B_i)$$` com interseções disjuntas. --- ## Fórmula da Probabilidade Total Se `\((B_1,\dots,B_n)\)` é uma partição de `\(\Omega\)` com `\(P(B_i) > 0\)`, então: `$$P(A) = \sum_{i=1}^n P(B_i)\,P(A \mid B_i)$$` **Interpretação:** a probabilidade de `\(A\)` é a média ponderada das probabilidades de `\(A\)` em cada cenário `\(B_i\)`. --- ## Probabilidade Total — Árvore de Decisão <img src="Aula-1-–-Introdução-à-Probabilidade_files/figure-html/arvore-1.png" alt="" width="792" style="display: block; margin: auto;" /> --- ## Exemplo – Cálculo de Probabilidade Total Pela **fórmula da probabilidade total**: $$ `\begin{aligned} P(\text{erro}) &= P(M)\,P(\text{erro} \mid M) + P(D)\,P(\text{erro} \mid D) \\ &= 0{,}3 \cdot 0{,}04 + 0{,}7 \cdot 0{,}01 \\ &= 0{,}012 + 0{,}007 = 0{,}019 \end{aligned}` $$ Ou seja, **1,9%** das requisições, em média, apresentam erro. --- ## Teorema de Bayes (Forma Básica) Seja `\((B_1,\dots,B_n)\)` uma partição de `\(\Omega\)` com `\(P(B_i) > 0\)`. Para qualquer evento `\(A\)` com `\(P(A) > 0\)`, o **Teorema de Bayes** afirma: `$$P(B_j \mid A) = \frac{P(B_j)\,P(A \mid B_j)} {\displaystyle \sum_{i=1}^n P(B_i)\,P(A \mid B_i)}, \qquad j = 1,\dots,n.$$` - Numerador: **probabilidade conjunta** `\(P(B_j \cap A)\)`; - Denominador: `\(P(A)\)`, obtido pela fórmula da probabilidade total. Bayes inverte a ordem: de `\(P(A \mid B_j)\)` para `\(P(B_j \mid A)\)`. --- ## Teorema de Bayes — Interpretação .pull-left[ - `\(P(B_j)\)`: **a priori** — antes de observar `\(A\)` - `\(P(A \mid B_j)\)`: **verossimilhança** — chance de `\(A\)` sob `\(B_j\)` - `\(P(B_j \mid A)\)`: **a posteriori** — após observar `\(A\)` > Observar `\(A\)` **atualiza** nossa crença sobre qual `\(B_j\)` está em jogo. Em ML: base do classificador **Naive Bayes** e de toda inferência Bayesiana. ] .pull-right[ <img src="Aula-1-–-Introdução-à-Probabilidade_files/figure-html/bayes-chart-1.png" alt="" width="360" /> ] --- ## Exemplo – Bayes em Versão Simples Considere: - 10% das requisições são de usuários **VIP** (`\(V\)`) e 90% de usuários **regulares** (`\(R\)`); - Probabilidade de erro: - `\(P(\text{erro} \mid V) = 0{,}02\)`; - `\(P(\text{erro} \mid R) = 0{,}015\)`. Pergunta: dado que houve erro, qual a probabilidade de a requisição ser de um usuário VIP? --- ## Exemplo – Cálculo de Bayes Probabilidade total de erro: $$ `\begin{aligned} P(\text{erro}) &= 0{,}1 \cdot 0{,}02 + 0{,}9 \cdot 0{,}015 = 0{,}002 + 0{,}0135 = 0{,}0155 \end{aligned}` $$ Pelo Teorema de Bayes: $$ P(V \mid \text{erro}) = \frac{P(V)\,P(\text{erro} \mid V)}{P(\text{erro})} = \frac{0{,}1 \cdot 0{,}02}{0{,}0155} = \frac{0{,}002}{0{,}0155} \approx 0{,}129 $$ Ou seja, **~13%** dos erros vêm de usuários VIP — embora eles sejam apenas 10% do total. --- ## Resumo Conceitual (1) - **Probabilidade condicional:** `$$P(A \mid B) = \dfrac{P(A \cap B)}{P(B)}$$` - **Regra do produto:** `$$P(A \cap B) = P(B)\,P(A \mid B) = P(A)\,P(B \mid A)$$` - **Independência:** `$$P(A \cap B) = P(A)\,P(B) \iff P(A \mid B) = P(A) \iff P(B \mid A) = P(B)$$` --- ## Resumo Conceitual (2) Com uma **partição** `\((B_1,\dots,B_n)\)`: - **Probabilidade total:** `$$P(A) = \sum_{i=1}^n P(B_i)\,P(A \mid B_i)$$` - **Teorema de Bayes:** `$$P(B_j \mid A) = \frac{P(B_j)\,P(A \mid B_j)} {\displaystyle \sum_{i=1}^n P(B_i)\,P(A \mid B_i)}$$` Esses resultados fecham o bloco necessário para aprofundar **Bayes** e aplicações em IA/ML nas próximas aulas. --- ## Conexão com Estatística - **Probabilidade:** trabalha com **modelos** → dos fenômenos para os dados. - **Estatística:** trabalha com **dados** → dos dados para os modelos. Nesta disciplina, usaremos Probabilidade como base para: - Estimativa (média, variância etc.) - Testes de hipóteses - Intervalos de confiança - Modelos probabilísticos (Binomial, Poisson, Normal, etc.) --- ## Atividade em Sala (Metodologia Ativa) ### Em grupos (3–4 estudantes) 1. Escolham um contexto da sua área (TI, Engenharia de Produção, Software etc.). 2. Descrevam um **experimento aleatório** relevante. 3. Definam o **espaço amostral** `\(\Omega\)` (discreto ou contínuo). 4. Proponham **3 eventos** de interesse (sucesso, falha, atraso etc.). 5. Discutam: - Quais eventos são mutuamente exclusivos? - Há eventos que parecem independentes? Por quê? **Tempo:** 15 minutos. **Produto:** pequeno mapa conceitual para compartilhamento. --- ## Minilab R — Distribuição de Requisições ``` r set.seed(6391) n_min <- 60 req_por_min <- rpois(n_min, lambda = 5) # modelo Poisson (virá depois) ggplot(data.frame(req = req_por_min), aes(x = req)) + geom_bar(fill = "#0072B2", color = "white", width = 0.7) + geom_vline(xintercept = mean(req_por_min), linetype = "dashed", color = "#D73027", linewidth = 1) + annotate("text", x = mean(req_por_min) + 0.6, y = 11, label = paste0("média = ", round(mean(req_por_min), 1)), color = "#D73027", size = 4, fontface = "bold") + labs(x = "Requisições por minuto", y = "Frequência", title = "Distribuição de requisições — simulação Poisson(\u03bb = 5)") + theme_minimal(base_size = 13) + theme(plot.title = element_text(hjust = 0.5)) ``` <img src="Aula-1-–-Introdução-à-Probabilidade_files/figure-html/minilab-1.png" alt="" width="648" /> --- ## Ticket de Saída (individual) Responda, em 3–5 linhas cada: 1. O que é um **espaço amostral** `\(\Omega\)`? 2. Se `\(P(A) = 0{,}3\)` e `\(P(B) = 0{,}5\)` e `\(A \cap B = \emptyset\)`, qual é `\(P(A \cup B)\)`? Justifique. 3. Cite um exemplo **da sua área** em que a noção de probabilidade condicional `\(P(A \mid B)\)` seja importante. Entregar ao final da aula (papel ou AVA). --- ## Para a Próxima Aula ### Pré-aula (tarefa assíncrona) - Indique **2 bases de dados abertas** (educação, saúde, mobilidade, esportes etc.) que possam ser usadas na disciplina: 1. Link da base 2. Breve descrição (3–5 linhas) 3. Uma pergunta investigável que a base pode ajudar a responder ### Leitura sugerida - MORETTIN & BUSSAB — Cap. 1 (Introdução) - MONTGOMERY & RUNGER — Seções de probabilidade básica --- ## Referências ### Básicas - LEVINE, D. M. et al. *Estatística: teoria e aplicações usando MS Excel*. LTC, 2012. - MORETTIN, P. A.; BUSSAB, W. O. *Estatística Básica*. 7. ed. Saraiva, 2011. - SPIEGEL, M. R.; STEPHENS, L. J. *Estatística*. Bookman, 2009. - MONTGOMERY, D.; RUNGER, C. *Estatística Aplicada e Probabilidade para Engenheiros*. 6. ed. LTC, 2016. - DEVORE, J. L. *Probabilidade e Estatística: para Engenharia e Ciências*. Pioneira Thomson Learning. ### Complementares - BORNIA, A. C.; BARBETTA, P. A.; REIS, M. M. *Estatística para cursos de engenharia e informática*. Atlas, 2008. - GRIFFITHS, D. *Use a cabeça! Estatística*. Alta Books, 2009. - LARSON, R.; FARBER, B. *Estatística Aplicada*. Pearson, 2010. - RONALD, E. W. *Probabilidade e estatística para engenharia e ciências*. Prentice Hall, 2009. - ROCHA, B. D. *R Básico — Estudando o Ambiente R, Vol. I*. (Material de apoio computacional da disciplina). --- class: inverse, center, middle # Obrigado! ### Nos vemos na próxima aula **hrodrigues@ufam.edu.br** *UFAM -- ICET -- Itacoatiara, AM*