class: center, middle, inverse, title-slide .title[ # Probabilidade e InferĂȘncia ] .author[ ### Pedro Victor Brasil Ribeiro ] .institute[ ### FAPEG ] .date[ ### 10/05/2023 (Alterado em: 23/02/2024 - sexta-feira) ] --- class: middle, center, inverse # DistribuiçÔes EstatĂsticas --- class: middle <h2 style="text-align: center;"> Tipo de distribuiçÔes </h2> ### DistribuiçÔes Discretas Descreve o comportamento de uma v.a. que assume valores em um conjunto enumerĂĄvel de pontos, ou seja, `\(X \in \mathbb{Z}\)`. Em outras palavras, uma v.a. discreta Ă© aquela que pode assumir apenas valores finitos. A probabilidade de cada valor da variĂĄvel pode ser determinada exatamente a partir da função de probabilidade discreta, e Ă© representada por uma sĂ©rie de valores "em escada". --- class: center, middle <!-- --> --- class: middle <h2 style="text-align: center;"> Tipo de distribuiçÔes </h2> ### DistribuiçÔes ContĂnuas Ă uma função de probabilidade que descreve o comportamento de uma variĂĄvel aleatĂłria que pode assumir qualquer valor em um intervalo contĂnuo, ou seja, `\(X \in \mathbb{R}\)`. Uma variĂĄvel aleatĂłria contĂnua Ă© caracterizada por sua densidade de probabilidade, que Ă© uma função contĂnua, que descreve a probabilidade da variĂĄvel assumir qualquer valor dentro de um intervalo. --- class: center, middle <!-- --> --- class: center, middle <!-- --> --- class: center, middle <!-- --> --- class: middle Em resumo, as distribuiçÔes discretas e contĂnuas diferem em sua natureza fundamental. Uma distribuição discreta representa uma variĂĄvel que pode assumir apenas um conjunto finito ou enumerĂĄvel de valores, enquanto uma distribuição contĂnua representa uma variĂĄvel que pode assumir qualquer valor em um intervalo contĂnuo. -- Esta distinção Ă© importante na seleção de tĂ©cnicas estatĂsticas adequadas para anĂĄlise de dados, jĂĄ que cada tipo de distribuição requer mĂ©todos especĂficos para cĂĄlculo de probabilidades e outras medidas estatĂsticas. --- class: middle ## InformaçÔes Relevantes ### Esperança A esperança, tambĂ©m conhecida como valor esperado, Ă© uma medida estatĂstica que representa o valor mĂ©dio de uma variĂĄvel aleatĂłria. Ă calculada como a soma dos produtos dos possĂveis valores da variĂĄvel pelo valor de probabilidade de cada valor ocorrer. .footnote[ [1]. Ross (2009) [2]. MagalhĂŁes (2006) ] -- - DistibuiçÔes Discretas: $$ E[X] = \sum_{i = 0}^{\infty} x_i p_i(x_i) $$ - DistibuiçÔes ContĂnuas: $$ E[X] = \int_{-\infty}^{+\infty} xf(x) dx $$ .footnote[ [1]. Ross (2009) [2]. MagalhĂŁes (2006) ] --- class: middle #### Propriedades Nas seguintes propriedades, **X, Y** sĂŁo variĂĄveis aleatĂłrias, **a, b** sĂŁo constantes. `$$E[a] = a$$` `$$E[a + bX] = a + bE[X]$$` `$$E[X + Y] = E[X] + E[Y]$$` .footnote[ [1]. Ross (2009) [2]. MagalhĂŁes (2006) ] --- class: middle `$$E[XY] \neq E[X] \cdot E[Y]$$` - A igualdade Ă© vĂĄlida se X e Y sĂŁo independentes, porĂ©m Ă© possĂvel definir casos onde a igualdade Ă© vĂĄlida porĂ©m eles nĂŁo sĂŁo independentes Ou seja, a independĂȘncia implica a igualdade, porĂ©m a igualdade nĂŁo implica independĂȘncia. .footnote[ [1]. Ross (2009) [2]. MagalhĂŁes (2006) ] -- `$$E[X^2] = E[x^TAx] = Var(x) \cdot tr(A) + \left[ E[X] \right]^T \cdot A \cdot E[X]$$` .footnote[ [1]. Ross (2009) [2]. MagalhĂŁes (2006) ] --- class: middle ### VariĂąncia A variĂąncia Ă© uma medida de dispersĂŁo que quantifica a variabilidade dos valores de uma variĂĄvel aleatĂłria em relação Ă sua mĂ©dia. Ela indica o quĂŁo distantes os valores individuais estĂŁo da mĂ©dia. Ă calculada como a mĂ©dia dos quadrados das diferenças entre cada valor da variĂĄvel e a mĂ©dia. .footnote[ [1]. Ross (2009) [2]. MagalhĂŁes (2006) ] -- #### Propriedades `$$Var(X) = E[(X - \mu)^2] = E[X^2] - \left( E[X] \right)^2$$` `$$Var(aX + b) = a^2Var(X)$$` `$$Var(X + Y) = Var(X) + Var(Y) + 2 \cdot Cov(X,Y)$$` .footnote[ [1]. Ross (2009) [2]. MagalhĂŁes (2006) ] `$$Var\left( \sum_{i = 1}^{N} a_iX_i \right) = \sum_{i = 1}^{N} a_i^2Var(X_i) + 2 \sum_{1 \leq i < j \leq N} a_ia_j Cov(X_i, X_j)$$` .footnote[ [1]. Ross (2009) [2]. MagalhĂŁes (2006) ] --- class: middle ### Função Geradora de Momentos A função geradora de momentos Ă© uma função matemĂĄtica que descreve a relação entre os momentos de uma distribuição de probabilidade. Ela Ă© definida como a transformada de Laplace dos momentos da distribuição. A função geradora de momentos fornece informaçÔes sobre os momentos da distribuição, como a mĂ©dia, variĂąncia, assimetria e curtose. Ela Ă© Ăștil para caracterizar e comparar diferentes distribuiçÔes de probabilidade. $$M_X(t) = E[e^{tX}], \quad \forall t \quad \text{Tal que} \quad E[X^{tX}] < \infty $$ - Se X Ă© discreta `$$M_X(t) = \sum_k e^{tX} P(X = k)$$` - Se X Ă© contĂnua `$$M_X(t) = \int_{-\infty}^{+\infty} e^{tX}f(x) dx$$` .footnote[ [1]. Ross (2009) [2]. MagalhĂŁes (2006) ] --- class: middle #### Propriedades `$$M_{aX+b}(t) = e^{tb}M_X(at)$$` Seja, `$$Y = \sum_{i =1}^{n} X_i$$` `$$M_Y = M_{\sum_{i =1}^{n} X_i(t)} = \prod_{i = 1}^{n} M_{X_i}$$` O que implica que, se as variĂĄveis aleatĂłrias `\(X_i\)` sĂŁo independentes e identicamente distribuidas. `$$M_Y = \prod_{n}^{i = 1} M_{X_i} = \left( M_{X_1} \right)^n$$` --- class: center, middle, inverse # Mas pra que serve isso? --- class: center, middle, inverse # Teorema da Unicidade da Função Geradora de Densidade .footnote[ [1]. Ross (2009) [2]. MagalhĂŁes (2006) ] --- class: middle Existe uma Ășnica função de densidade associada a uma função geradora de momentos e vice-versa. Ou seja, duas funçÔes de distribuição `\(f_1(X)\)` e `\(f_2(X)\)` sĂŁo identicas, se e somente se, `\(M_{X_1}(t)\)` e `\(M_{X_2}(t)\)` sĂŁo identicas. --- class: middle ## Exemplos: Seja `\(X \sim exp(\lambda)\)`, encontre sua função geradora de momentos (FGM). $$ `\begin{align} M_X(t) =& E[e^{tX}] \\ =& \int_{0}^{\infty} e^{tX} \cdot \lambda e^{-\lambda X} \\ =& \int_{0}^{\infty} \lambda \cdot e^{-x \cdot (\lambda - t)} \\ =& \left[ - \frac{\lambda}{\lambda - t}e^{-x \cdot (\lambda - t)} \right]_{0}^{+\infty} \\ =& \frac{\lambda}{\lambda - t} \qquad \blacksquare \end{align}` $$ --- class: middle Dado a FGM demonstrada acima, mostre que, dado `\(X \sim exp(\lambda)\)` e `\(Y = \sum_{i = 1}^{n} X_i\)` e sabendo que a FGM da distribuição gamma Ă© dada por `\(\left( \frac{\lambda}{\lambda - t} \right)^n\)`. Mostre que Y possui distribuição gama. $$ `\begin{align} M_Y(t) =& M_{\sum_{i = 1}^{n} X_i}(t) \\ =& \prod_{i = 1}^{n} M_{X_1}(t) \\ =& (M_{X_1})^n \\ =& \left( \frac{\lambda}{\lambda - t} \right)^n \end{align}` $$ Portanto, `\(Y = \sum_{i = 1}^{n}X_i \sim \Gamma(\lambda, n)\)`. Ou seja, a soma de exponenciais possui distribuição gama. --- class: middle, center Outras relaçÔes de distribuiçÔes. <img src="https://raw.githubusercontent.com/ribeiropvb/curso_r_2023/main/Modulo%20II/imagens/distribution.png" width="450px" style="display: block; margin: auto;" /> [http://www.math.wm.edu/~leemis/chart/UDR/UDR.html](http://www.math.wm.edu/~leemis/chart/UDR/UDR.html) --- class: center, middle, inverse # Mas porque isso funciona? --- class: center, middle ## Irei assumir que todos sabem CĂĄlculo I ### Derivada e SĂ©rie de Taylor --- class: middle - SĂ©rie de Taylor de `\(e^{tx}\)` $$ `\begin{align} E[e^{tx}] =& E \left[ \dfrac{(tx)^0}{0!} + \dfrac{(tx)^1}{1!} + \dfrac{(tx)^2}{2!} + \dfrac{(tx)^3}{3!} + \cdots + \dfrac{(tx)^n}{n!} \right] \\ E[e^{tx}] =& E[1] + tE[X] + \dfrac{t^2}{2!}E[X^2] + \dfrac{t^3}{3!}E[X^3] + \cdots + \dfrac{t^n}{n!}E[X^n] \end{align}` $$ - Derivando em relação a t e fazendo t = 0: $$ `\begin{align} \dfrac{d}{dt} E[e^{tx}] =& \dfrac{d}{dt} \left( E[1] + tE[X] + \dfrac{t^2}{2!}E[X^2] + \dfrac{t^3}{3!}E[X^3] + \cdots + \dfrac{t^n}{n!}E[X^n] \right)\\ =& 0 + E[X] + \dfrac{2t}{2} E[X^2] + \dfrac{3t^2}{3*2}E[X^3] + \cdots + \dfrac{nt^{n-1}}{n*(n-1)!}E[X^n] \\ =& 0 + E[X] + 0 + 0 + \cdots + 0, \qquad t = 0 \\ =& E[X] \qquad \blacksquare \end{align}` $$ --- class: middle ## k-Ă©simo momento - Derivando em relação a t e fazendo t = 0: $$ `\begin{align} \dfrac{d^k}{dt^k} E[e^{tx}] =& \dfrac{d^k}{dt^k} \left( E[1] + tE[X] + \dfrac{t^2}{2!}E[X^2] + \dfrac{t^3}{3!}E[X^3] + \cdots + \dfrac{t^n}{n!}E[X^n] \right)\\ =& 0 + 0 + 0 + 0 + \cdots + \dfrac{k!}{k!}E[X^k] + \cdots + \dfrac{(n-k)!t^{n-k}}{(n-k)!*k!}E[X^n] \\ =& 0 + 0 + 0 + 0 + \cdots + E[X^k] + \cdots + 0, \qquad t = 0 \\ =& E[X^k] \qquad \blacksquare \end{align}` $$ --- class: center, middle # DistribuiçÔes EstatĂsticas <img src="https://raw.githubusercontent.com/ribeiropvb/curso_r_2023/main/Modulo%20II/imagens/img1.png" width="450px" style="display: block; margin: auto;" /> --- class: center, middle, inverse # DistribuiçÔes Discretas Principais --- class: middle # Distribuição Bernoulli A distribuição Bernoulli Ă© uma distribuição de probabilidade discreta que modela um Ășnico evento binĂĄrio, com dois resultados possĂveis: sucesso (1) ou fracasso (0). $$ f(x) = p^x \cdot (1 - p)^{1-x} $$ --- class: middle **Nota Importante:** Sucesso nĂŁo necessĂĄriamente se trata de algo bom ou ruim, Exemplos: - Sucesso `\(\Rightarrow\)` Possuir um doença; - Sucesso `\(\Rightarrow\)` Ser homem; -- Ă caracterizada por um parĂąmetro p que representa a probabilidade de sucesso em um Ășnico ensaio. $$ E[X] = p $$ $$ Var(x) = p \times (1-p) $$ Ă frequentemente usada como base para outras distribuiçÔes, como a binomial e a de Poisson. Tem aplicaçÔes em estatĂstica, teoria da informação, processos estocĂĄsticos e aprendizado de mĂĄquina. --- class: middle # Distribuição Binomial $$ f(x) =\binom{n}{k}p^k(1- p)^{n-k} $$ Modela o nĂșmero de sucessos em um nĂșmero fixo de tentativas independentes, onde cada tentativa tem apenas dois resultados possĂveis ('Sucesso' ou 'Fracasso'). Ela Ă© amplamente utilizada em situaçÔes em que ocorrem eventos binĂĄrios, como "sim" ou "nĂŁo", e Ă© caracterizada pelos parĂąmetros do nĂșmero de tentativas e a probabilidade de sucesso em cada tentativa. A distribuição binomial Ă© relacionada Ă distribuição Bernoulli, que Ă© um caso especial em que hĂĄ apenas uma Ășnica tentativa. $$ `\begin{align} E[X] =& np \\ Var(x) =& np \cdot (1-p) \end{align}` $$ --- class: middle, center <!-- --> --- class: middle ## Relação Binomial e Bernouilli A distribuição Binomial se trata da soma de experimentos independentes Bernoulli. **Teorema:** Seja `\(X_1,X_2, \cdots,X_n\)`, independentes e igualmente distribuĂdos (*i.i.d.*), tal que `\(X_i \sim Ber(p)\)`: `$$\therefore Y = \sum_{i = 1}^{n} X_i \sim Bin(n,p)$$` .footnote[A demonstração Ă© feita por Função Geradora de Momentos, que serĂĄ apresentada posteriormente.] --- class: middle - Bernoulli: $$ `\begin{align} M_X(t) =& E[e^{tX}] \\ =& \sum_{n = 0}^{1} P(X = n)e^{tn} \\ =& (1-p) + pe^t \end{align}` $$ -- - Binomial $$ `\begin{align} M_Y(t) =& E[e^{tX}] \\ =& \sum_{n = 0}^{n} e^{xt} \binom{n}{x}p^x(1-p)^{n-x} \\ =& \sum_{n = 0}^{n} \left( pe^t \right)^x \binom{n}{x} (1-p)^{n-x}, \qquad \text{Teorema Binomial} \\ =& \left( 1 - p + pe^t \right)^n \end{align}` $$ --- class: middle Seja, $$ Y = \sum_{i = 1}^{n} X_i \qquad \text{, Tal que } X_i ~ Ber(p) $$ E `\(X_i\)` Ă© iid (independente e identicamente distribuĂdo). --- class: middle Sabemos que, $$ `\begin{align} M_Y(t) =& E[e^{tY}] \\ =& (E[e^{tX}])^n \\ =& \left( 1 - p + pe^t \right)^n \end{align}` $$ -- `\(\therefore\)` Pelo Teorema da Unicidade da Função Geradora de Densidade, temos que: $$ `\begin{align} Y = \sum_{i = 1}^n X_i \sim Bin(n,p) \end{align}` $$ --- class: middle # Distribuição Poisson $$ \overbrace{f(x, \lambda) = \frac{e^{-\lambda}\lambda^x}{x!}}^{\text{Representação ClĂĄssica}} \quad \text{ou} \qquad \overbrace{P[N(t) = k ] = \frac{e^{-\lambda t}(\lambda t)^k}{k!}}^{\text{Represemtação EstocĂĄstica}} $$ Modela a ocorrĂȘncia de eventos raros em um intervalo fixo de tempo ou espaço. Ela Ă© amplamente utilizada para descrever a frequĂȘncia de eventos que ocorrem de forma aleatĂłria e independente. - nĂșmero de chamadas recebidas em um call center; - nĂșmero de acidentes de trĂąnsito em uma regiĂŁo durante um dia. Seu Ășnico parĂąmetro representa a taxa mĂ©dia de ocorrĂȘncia dos eventos Ela assume valores nĂŁo negativos e seu valor esperado e variĂąncia sĂŁo iguais --- class: middle distribuição de Poisson Ă© Ăștil na modelagem e anĂĄlise de dados que envolvem contagem de eventos, permitindo calcular a probabilidade de ocorrer um determinado nĂșmero de eventos em um intervalo especĂfico. Essa distribuição tem aplicaçÔes em ĂĄreas como estatĂstica, ciĂȘncias sociais, economia, epidemiologia e engenharia, onde a ocorrĂȘncia de eventos raros Ă© de interesse para estudos e anĂĄlises. $$ `\begin{align} E[X] =& \lambda \\ Var(x) =& \lambda \end{align}` $$ --- class: middle $$ `\begin{align} M_X(t) =& \sum_{n = 0}^{\infty} \frac{\lambda^n e{^-\lambda}}{n!} e^{tn} \\ =& e^{-\lambda} \sum_{n = 0}^{\infty} \frac{(\lambda e^t)^n}{n!} \\ =& e^{-\lambda}e^{\lambda e^t} \\ =& e^{\lambda(e^t-1)} \end{align}` $$ $$ `\begin{align} M_Y(t) =& \prod_{i = n}^{n} M_{X_1}, \quad X_i \sim Poi(\lambda) \quad i.i.d. \\ =& (M_{X_1})^n \\ =& e^{n\lambda(e^t-1)} \\ \\ &\therefore \sum_{i = 1}^n X_i \sim Poi(n\lambda) \end{align}` $$ --- class: middle # Distribuição GeomĂ©trica A distribuição geomĂ©trica Ă© uma distribuição de probabilidade discreta que modela o nĂșmero de tentativas independentes necessĂĄrias atĂ© ocorrer o primeiro sucesso em um experimento. Ela Ă© comumente usada para descrever eventos de natureza binĂĄria, como lançar uma moeda atĂ© obter cara pela primeira vez ou realizar tentativas de um experimento atĂ© obter um resultado desejado. Essa distribuição Ă© caracterizada por um Ășnico parĂąmetro, que representa a probabilidade de sucesso em uma Ășnica tentativa. A distribuição geomĂ©trica assume valores inteiros nĂŁo negativos. -- Ela Ă© amplamente aplicada em ĂĄreas como estatĂstica, ciĂȘncias sociais, teoria das filas, anĂĄlise de tempo de vida e estudos de probabilidade. --- class: middle $$ `\begin{align} M_X(t) =& E[e^{tX}] \\ =& \sum_{k = 0}^{\infty} e^{kt}p(1 - p)^{k-1} \\ =& \frac{p}{1 - p}\sum_{k = 0}^{\infty}e^{tk}(1 - p)^k \\ =& \frac{p}{1 - p}\sum_{k = 0}^{\infty} (e^{t}(1 - p))^k, \quad\quad \text{SĂ©rie GeomĂ©trica} \\ =& \frac{p}{1 - p} \frac{e^{t}(1 - p)}{1 - e^{t}(1 - p)} \\ =& \frac{pe^t}{1 - e^t(1-p)} \quad \quad \blacksquare \end{align}` $$ --- class: middle # Distribuição Binomial Negativa A distribuição binomial negativa Ă© usada para contar o nĂșmero de ensaios de Bernoulli independentes necessĂĄrios para obter um nĂșmero fixo de sucessos. Ă Ăștil quando estamos interessados em quantificar o nĂșmero de falhas antes de atingir um certo nĂșmero de sucessos desejados. Essa distribuição Ă© caracterizada por dois parĂąmetros: o nĂșmero de sucessos desejados e a probabilidade de sucesso em cada ensaio. A distribuição binomial negativa Ă© amplamente aplicada em diversas ĂĄreas ciĂȘncias atuariais e anĂĄlise de risco. --- class: middle Ela Ă© usada para modelar situaçÔes em que a contagem de falhas desempenha um papel importante na compreensĂŁo da ocorrĂȘncia de eventos desejados. Por exemplo, pode ser usada para estimar o nĂșmero de tentativas necessĂĄrias para obter um certo nĂșmero de vendas, falhas de equipamentos antes de uma reparação ou o nĂșmero de experimentos necessĂĄrios para encontrar uma partĂcula rara em fĂsica de partĂculas. A distribuição binomial negativa oferece uma ferramenta Ăștil para analisar esses tipos de eventos com base em probabilidades e contagens de sucessos e falhas. --- class: middle A demonstração da função geradora de momentos da Binomial Negativa Ă© mais complexa de se demonstrar, porĂ©m sabe-se que, seja `\(X_1, X_2, \cdots, X_n\)`, onde `\(X_i \sim geom(p)\)` i.i.d. entĂŁo `\(Y = \sum_{i = 1}^{n}X_i \sim BN(n,p)\)` $$ `\begin{align} M_Y(t) =& E[e^{tY}] = E[e^{t \times (X_1 + X_2 + \cdots + X_n)}] \\ =& \prod_{i = 1}^{n} M_{X_1} = (M_{X_1})^n \\ =& \left[ \frac{e^tp}{1 - e^t(1-p)} \right]^n \quad \quad \blacksquare \end{align}` $$ Para ver a demonstração completa [(Clique Aqui)](https://www.math.arizona.edu/~tgk/464_10/chap4_9_29.pdf) --- class: middle # Outras DistribuiçÔes Discretas - Distribuição HipergeomĂ©trica: - Amostragem sem reposição; - Distribuição Uniforme Discreta; - Valores igualmente provĂĄveis; - Distribuição de Zipf - Modelar a frequĂȘncia de ocorrĂȘncia de eventos em dados textuais; --- class: middle # Outras DistribuiçÔes Discretas - Distribuição de Yule-Simon - Modelar a frequĂȘncia de eventos raros; - Distribuição de Rademacher - Modelar um resultado aleatĂłrio +1 ou -1, igualmente provavel; - Distribuição de LogarĂtmica - Modelar o nĂșmero de tentativas independentes necessĂĄrias para obter o primeiro sucesso, com uma probabilidade decrescente Ă medida que as tentativas aumentam. --- class: middle, center, inverse # DistribuiçÔes ContĂnuas Principais --- class: middle ## Distribuição Uniforme A Distribuição Uniforme `\(( U(a,b) )\)` Ă© uma distribuição de probabilidade simples, caracterizada por uma distribuição uniforme e constante de probabilidades em um intervalo especĂfico, `\(x \in [a, b]\)`. Ela Ă© frequentemente usada quando nĂŁo hĂĄ preferĂȘncia ou viĂ©s em relação aos valores dentro desse intervalo. Ă amplamente aplicada em ĂĄreas como simulação, modelagem estatĂstica, oferecendo uma distribuição igualitĂĄria de chances. Ă uma ferramenta versĂĄtil e fĂĄcil de usar em diferentes contextos estatĂsticos e cientĂficos. -- **Sua maior utilidade vem do Teorema da Transformação Inversa**, o qual possibilita representar qualquer função de distribuição inversĂvel como entradas providas de uma distribuição uniforme. --- class: middle $$ `\begin{align} f(x) =& \dfrac{1}{b - a}, \qquad a < x < b \\ F(X) =& \dfrac{x - a}{b - a}, \\ E[X] =& \dfrac{a + b}{2} \\ Var(x) =& \dfrac{(b - a)^2}{12} \\ M(t) =& \begin{cases} 1 & t = 0 \\ \frac{e^{bt}-e^{at}}{t(b-a)} & t \neq 0 \end{cases} \end{align}` $$ --- class: middle Seja `\(F_X^{-1}(.)\)` definida por `\(F_X^{-1}(u) = inf\{ x: F_X(x) - u \}, 0 < u < 1\)` se `\(U \sim U(0,1) \forall x \in \mathbb{R}\)` $$ `\begin{align} P(F^{-1}(U) \leq x) =& P(F_X^{-1}(U) \leq F_X(x)), &F_X\text{ Ă© monĂłtona} \\ =& P(U \leq F_X(x)) & F_X(F_X^{-1}(U) = U) \\ =& F_U(F_X(x)) & \text{Como U Ă© U(0,1) } \Rightarrow F_U(a) = a \\ =& F_X(x)& \\ =& P(X \leq x)& \end{align}` $$ --- class: middle ## Distribuição Exponencial A Distribuição Exponencial descreve o tempo de espera entre eventos ocorrendo de forma aleatĂłria e contĂnua, seguindo uma taxa mĂ©dia especĂfica, o que faz com que ela seja muito utilizada em ĂĄreas como saĂșde e/ou engenharia. Para extimar valores como a taxa mĂ©dia de vida de uma pessoa e/ou objeto. -- Ela Ă© Ăștil para modelar fenĂŽmenos que envolvem tempos de espera ou duraçÔes, como tempo de vida de produtos, tempo entre falhas em sistemas, tempo de espera em filas e tempo de resposta em sistemas de atendimento. $$ `\begin{align} f(x) = \lambda e^{\lambda x} \end{align}` $$ --- class: middle Uma das principais propriedades da Distribuição Exponencial Ă© a chamada **"Perda de MemĂłria"**, o que significa que o tempo decorrido nĂŁo afeta a probabilidade de um evento ocorrer no futuro. Essa propriedade torna a distribuição exponencial Ăștil em muitas aplicaçÔes prĂĄticas. $$ `\begin{align} P(T > s + t | T > s) \overset{def}{=}& \dfrac{P\left( \{ T > s + t\}\cap \{ T > s \} \right)}{P(T > s)} \\ =& \dfrac{P( T > s + t)}{P(T > s)} \\ =& \dfrac{e^{-\lambda(s+t)}}{e^{-\lambda s}} \\ =& e^{-\lambda t} \\ =& P(T > t) \end{align}` $$ Ou seja, a ocorrĂȘncia do evento "s", nĂŁo influenciarĂĄ na ocorrĂȘncia do evento t. --- class: middle ## Distribuição Gama A Distribuição Gama Ă© caracterizada por sua forma assimĂ©trica e flexibilidade para modelar uma ampla variedade de comportamentos de dados. Ela Ă© frequentemente usada para modelar tempos de espera, tais como tempo de vida de produtos, tempo entre eventos, tempo de falhas em sistemas, entre outros. AlĂ©m disso, a distribuição gama Ă© usada para modelar variĂĄveis que envolvem valores positivos contĂnuos. --- class: middle Uma das principais caracterĂsticas da distribuição gama Ă© que ela possui dois parĂąmetros: o parĂąmetro de forma (alpha) e o parĂąmetro de taxa (beta). Esses parĂąmetros permitem ajustar a distribuição aos dados observados e capturar diferentes formas e comportamentos. A forma da distribuição gama pode variar desde uma forma exponencial atĂ© uma forma mais simĂ©trica ou assimĂ©trica, dependendo dos valores dos parĂąmetros. <!-- --> --- class: middle <table class="table" style="margin-left: auto; margin-right: auto;"> <thead> <tr> <th style="text-align:left;"> tipo </th> <th style="text-align:right;"> Curtose </th> <th style="text-align:right;"> Assimetria </th> </tr> </thead> <tbody> <tr> <td style="text-align:left;"> p1 = 1; p2 = 2 </td> <td style="text-align:right;"> 4.3773078 </td> <td style="text-align:right;"> 1.8546868 </td> </tr> <tr> <td style="text-align:left;"> p1 = 2; p2 = 2 </td> <td style="text-align:right;"> 2.1178828 </td> <td style="text-align:right;"> 1.3421810 </td> </tr> <tr> <td style="text-align:left;"> p1 = 3; p2 = 2 </td> <td style="text-align:right;"> 2.1279058 </td> <td style="text-align:right;"> 1.2316468 </td> </tr> <tr> <td style="text-align:left;"> p1 = 5; p2 = 1 </td> <td style="text-align:right;"> 1.0176543 </td> <td style="text-align:right;"> 0.8566105 </td> </tr> <tr> <td style="text-align:left;"> p1 = 7.5; p2 = 1 </td> <td style="text-align:right;"> 0.5366932 </td> <td style="text-align:right;"> 0.6607791 </td> </tr> </tbody> </table> --- class: middle # Assimetria - Assimetria: Ă uma medida do grai de simetria em torno da mĂ©dia dos dados; Podemos interpretar essa medida visualmente e numĂ©ricamente. Ela Ă© estimada pelo mĂ©todo do coeficiente de Fisher, que Ă© calculado a partir do terceiro momento (estimado pelo mĂ©todo dos momentos): `$$g_1 = \dfrac{n^2 \cdot M_3}{(n-1) \times (n-2)S^3}$$` -- Onde terceiro momento Ă© dado por: `$$M_3 = \dfrac{\sum_{i=1}^{n}(X_i - \bar{X})^3}{n}$$` - `\(g_1\)` = 0: Distribuição SimĂ©trica; - `\(g_1\)` > 0: Distribuição AssimĂ©trica positiva (Ă direita); - `\(g_1\)` < 0: Distribuição AssimĂ©trica negativa (Ă esquerda). --- class: middle # Curtose Representa o grau de achatamento da distribuição, isto Ă©, quĂŁo espalhados os dados estĂŁo em torno da mĂ©dia. A curva padrĂŁo Ă© tomada como referĂȘncia e Ă© possĂvel fazer a interpretação tanto visualmente quanto numĂ©ricamente. - *MesocĂșrtica*: Curva em forma de sino; - *PlaticĂșrtica*: Possui um grau de achatamento maior que da curva normal padrĂŁo, o que nos indica que os dados estĂŁo mais "espalhados"; - *LeptocĂșrtica*: Possui um grau de achatamento menor do que a curva normal padrĂŁo (mais pontiagua), indica que os dados estĂŁo mais concentrado (< `\(\sigma^2\)`). --- class: middle A curtose pode ser calculada pelo coeficiente de curtose de Fisher, que neste caso utiliza o quarto momento de ordem superior ao redor da mĂ©dia: `$$g_2 = \dfrac{n^2 \cdot (n+1)\cdot M_4}{(n-1)\cdot(n-2)\cdot(n-3)\cdot S^4} - 3 \dfrac{(n-1)^2}{(n-2)\cdot(n-3)}$$` Onde quarto momento Ă© dado por: `$$M_4 = \dfrac{\sum_{i=1}^{n} (x_i - \bar{x})^4}{n}$$` - *K = 3*, curva normal padrĂŁo; - *K > 3*, curva leptocĂșrtica; - *k < 3*, curva platicĂșrtica. --- class: middle # Distribuição Weibull A Distribuição Weibull Ă© uma distribuição contĂnua utilizada para modelar a vida Ăștil de produtos e eventos. Ela Ă© especialmente adequada para descrever a distribuição de tempos de falha ou sobrevivĂȘncia, onde a taxa de falha varia ao longo do tempo. A distribuição Weibull, assim como a gama, possui dois parĂąmetros: o parĂąmetro de forma (k) e o parĂąmetro de escala ( `\(\lambda\)` ), que controlam a forma e a localização da distribuição. $$ `\begin{align} f(x) = \dfrac{k}{\lambda} \left( \dfrac{x}{\lambda} \right)^{k - 1} e^{-(x/\lambda)^k} \end{align}` $$ -- Com sua flexibilidade e capacidade de se ajustar a diferentes padrĂ”es de dados, a distribuição Weibull desempenha um papel fundamental na modelagem e anĂĄlise de eventos com tempos de vida variĂĄveis. Sua aplicação Ă© ampla e tem sido utilizada para auxiliar na tomada de decisĂ”es, previsĂ”es e avaliaçÔes de risco em diversos contextos. A distribuição Weibull pode ser obtida a partir de uma distribuição exponencial aonde, seja `\(X \sim exp(\lambda) \Rightarrow x^{1/k} \sim Wei(\lambda, k)\)`. --- class: middle $$ `\begin{align} E[X] =& \dfrac{\lambda}{k}\Gamma\left( \dfrac{1}{k} \right) \\ Var(x) =& \lambda^2 \left\{ \dfrac{2}{k}\Gamma\left( \dfrac{2}{\beta} \right) - \left[ \dfrac{1}{\beta}\Gamma\left(\dfrac{1}{\beta} \right) \right]^2 \right\} \\ M_x(t) =& \int_{0}^{\infty} e^{tx}\dfrac{k}{\lambda} \left( \dfrac{x}{\lambda} \right)^{k - 1}e^{-(x/\lambda)^k} dx \end{align}` $$ --- class: middle <!-- --> --- class: middle <table class="table" style="margin-left: auto; margin-right: auto;"> <thead> <tr> <th style="text-align:left;"> tipo </th> <th style="text-align:right;"> Curtose </th> <th style="text-align:right;"> Assimetria </th> </tr> </thead> <tbody> <tr> <td style="text-align:left;"> p1 = 1; p2 = 2 </td> <td style="text-align:right;"> 6.3179743 </td> <td style="text-align:right;"> 2.0739757 </td> </tr> <tr> <td style="text-align:left;"> p1 = 2; p2 = 2 </td> <td style="text-align:right;"> 0.1976185 </td> <td style="text-align:right;"> 0.6324448 </td> </tr> <tr> <td style="text-align:left;"> p1 = 3; p2 = 2 </td> <td style="text-align:right;"> -0.2330774 </td> <td style="text-align:right;"> 0.1804087 </td> </tr> <tr> <td style="text-align:left;"> p1 = 5; p2 = 1 </td> <td style="text-align:right;"> 0.0058023 </td> <td style="text-align:right;"> -0.3009288 </td> </tr> <tr> <td style="text-align:left;"> p1 = 7.5; p2 = 1 </td> <td style="text-align:right;"> 0.1947313 </td> <td style="text-align:right;"> -0.4808623 </td> </tr> </tbody> </table> --- class: middle # Distribuição Beta A distribuição Beta Ă© uma das distribuiçÔes de probabilidade mais versĂĄteis e amplamente utilizadas em estatĂstica e teoria das probabilidades. Ela descreve a distribuição de probabilidades de uma variĂĄvel aleatĂłria que estĂĄ limitada a um intervalo definido, geralmente entre 0 e 1. A distribuição Beta Ă© frequentemente usada para modelar proporçÔes, probabilidades e taxas de sucesso em experimentos e processos. -- CaracterĂsticas: - Intervalo limitado; - Versatilidade de escala e locação; - Muito utilizada em inferĂȘncia Bayesiana: - Normalmente utilizada para similar a distribuição uniforme e Ă© utilizada como conjulgada. --- class: middle # Distribuição Normal Ela Ă© caracterizada por uma curva simĂ©trica em forma de sino, com mĂ©dia ( `\(\mu\)` ) e desvio padrĂŁo ( `\(\sigma^2\)` ) como parĂąmetros. A curva da distribuição normal Ă© simĂ©trica em torno da mĂ©dia, e a maioria dos valores se concentra em torno dessa mĂ©dia. A forma da curva Ă© determinada pelo desvio padrĂŁo, que indica a dispersĂŁo dos valores em relação Ă mĂ©dia. --- class: middle, center <!-- --> --- class: middle A distribuição normal Ă© amplamente aplicada em diversas ĂĄreas, devido a vĂĄrias propriedades importantes. Uma delas Ă© a propriedade de que a mĂ©dia, mediana e moda da distribuição normal sĂŁo iguais (devido a sua simetria). -- A distribuição normal Ă© fundamental em vĂĄrias tĂ©cnicas estatĂsticas, como inferĂȘncia estatĂstica, modelagem de dados e anĂĄlise de sĂ©ries temporais. Sua forma simĂ©trica e propriedades estatĂsticas bem estabelecidas a tornam uma ferramenta poderosa na compreensĂŁo e anĂĄlise de dados. --- class: middle ## Demonstração - Padronização da Normal $$ Z = \dfrac{X-\mu}{\sigma}, \qquad \text{Dado que } X \sim N(\mu,\sigma^2) $$ -- $$ `\begin{align} M_{\left( \dfrac{X-\mu}{\sigma} \right)}(t) =& M_{\left( X-\mu \right)}(t/\sigma) \\ =& M_X \left(\dfrac{t}{\sigma} \right)exp\{ \mu t/\sigma \} \\ =& exp \left\{ \dfrac{\mu t}{\sigma} + \sigma^2\frac{t^2}{\sigma^2} \cdot \frac{1}{2} - \dfrac{\mu t}{\sigma} \right\} \\ =& exp \left\{ \dfrac{\mu t}{\sigma} - \dfrac{\mu t}{\sigma} + \frac{t^2}{2} \right\}\\ =& exp \left\{ \frac{t^2}{2} \right\} \\ =& exp \left\{ 0\cdot t + 1^2 \cdot \frac{t^2}{2} \right\}, \qquad \therefore Z \sim N(0,1) \quad \blacksquare \end{align}` $$ --- class: middle, center, inverse # Porque Ă© tĂŁo importante? --- class: middle ## Teorema Central do Limite (TCL) ### TCL de LindebergâLĂ©vy O Teorema Central do Limite estabelece que, quando uma grande amostra de observaçÔes independentes Ă© coletada de qualquer distribuição, a mĂ©dia dessas observaçÔes se aproximarĂĄ de uma distribuição normal, independentemente da forma da distribuição original. $$ `\begin{align} \sqrt(n) \left[ \left( \dfrac{1}{n} \sum_{i = 1}^{n} X_i \right) - \mu \right] \overset{d}{\rightarrow}& N(0,\sigma^2) \\ \sqrt(n) \left( \bar{x} - \mu \right) \overset{d}{\rightarrow}& N(0,\sigma^2) \end{align}` $$ -- Isso significa que, mesmo que os dados individuais nĂŁo sigam uma distribuição normal, a mĂ©dia de uma grande amostra desses dados tenderĂĄ a se distribuir de acordo com uma curva normal. Esse teorema Ă© importante porque permite que os estatĂsticos realizem inferĂȘncias estatĂsticas precisas e façam previsĂ”es com base em amostras aleatĂłrias, mesmo quando nĂŁo conhecem a distribuição subjacente dos dados. --- class: middle, center, inverse # SimulaçÔes --- class: middle, center ## Uniforme (0,1) <!-- --> - Mas se a mĂ©dia nĂŁo Ă© 0, qual a mĂ©dia? --- class: middle Sabemos que a mĂ©dia de uma uniforme Ă© igual a `\(\dfrac{b-a}{2} = 1/2\)`, entĂŁo. <!-- --> --- class: middle, center, inverse ## Distribuição Beta. A distribuição Beta Ă© uma distribuição muito restrita quando comparada com as outras, pois ela sĂł apresenta valores em um pequeno espaço `\(x \in [0,1]\)`. EntĂŁo Ela tambĂ©m converge para a Normal ? `$$\\[1in]$$` **Spoiler: SIM!** --- class: middle, center ## Beta(6,2) <!-- --> --- class: middle Sabemos que a mĂ©dia de uma beta Ă© igual a `\(\dfrac{\alpha}{\alpha + \beta} = \dfrac{6}{6+2} = 6/8\)`, entĂŁo. <!-- --> --- class: middle, center, inverse ## EntĂŁo o TCL sempre funciona? `$$\\[1in]$$` **NĂO!** --- class: middle Para que o TCl seja vĂĄlido Ă© necessĂĄrio algumas condiçÔes: 1. As observaçÔes na amostra devem ser independentes umas das outras; 2. MĂ©dia e VariĂąncia populacional devem ser finitas `\(E[X], Var(X) < \infty\)`; 3. O tamanho da amostra deve ser grande o suficiente. - Exemplos - Distribuição Cauchy; - Distribuição Pareto `\(\alpha \leq 1\)` --- class: middle, center ## Pareto(0.5) <!-- --> --- class: middle, center, inverse # Outras AplicaçÔes --- class: middle A partir do TCL, Ă© possĂvel definir um estimador assimĂ©trico, de forma que, seja possĂvel obter um estimador que, dado um cojunto de dados suficientemente grande, se aproxime do valor do parĂąmetro. Sem que seja necessĂĄrio um cĂĄlculo complexo e especĂfico dado uma distribuição qualquer. Que possua as propriedades de um estimador de mĂĄxima verossimilhança e que nos permita calcular seus intervalos de confiança. -- - Distribuição AssintĂłtica: $$ `\begin{align} \sqrt(n) \left( \hat{\theta}_n - \theta_0 \right) \overset{d}{\rightarrow}& N(0,V) \end{align}` $$ - Calculo do Intervalo de Confiança: $$ `\begin{align} \left[ \hat{\theta} \pm q^Z_{(1 - \alpha/2)} * \widehat{se}(\theta) \right] \end{align}` $$ <!-- Distribuição Log-Normal --> --- class: middle, center, inverse # Quando utilizar cada uma delas? --- class: middle - Distribuição Uniforme: Ă utilizada quando todas as observaçÔes tĂȘm a mesma probabilidade de ocorrĂȘncia em um intervalo contĂnuo. Ă comumente aplicada em situaçÔes em que nĂŁo hĂĄ razĂŁo para esperar que um valor ocorra com mais frequĂȘncia do que outro dentro do intervalo; -- - Distribuição Exponencial: Ă aplicada em situaçÔes em que se estĂĄ interessado no tempo entre eventos sucessivos em um processo de Poisson. Ă comumente usada em anĂĄlise de tempos de espera, como o tempo entre chegadas de clientes em um sistema de fila; -- - Distribuição Gama: Ă utilizada para modelar a duração de eventos ou o tempo de vida de um objeto. Ă comumente aplicada em anĂĄlise de sobrevivĂȘncia, tempo de espera, entre outras aplicaçÔes. --- class: middle - Distribuição Weibull: Ă aplicada para modelar a taxa de falha de um objeto ao longo do tempo. Ă comumente usada em anĂĄlise de confiabilidade e tempo de vida de componentes; -- - Distribuição Beta: Ă utilizada para modelar variĂĄveis aleatĂłrias que tĂȘm um intervalo limitado entre 0 e 1, como proporçÔes e taxas de sucesso. Ă frequentemente aplicada em anĂĄlise de experimentos, estudos de proporçÔes e anĂĄlise de dados de teste; -- - Distribuição Normal: Ă amplamente aplicada quando os dados seguem uma distribuição simĂ©trica em forma de sino e a mĂ©dia e o desvio padrĂŁo sĂŁo parĂąmetros importantes. Ă frequentemente utilizada em testes de hipĂłteses, intervalos de confiança e modelagem de dados contĂnuos; -- - Distribuição Log-Normal: Ă utilizada quando os dados tĂȘm uma distribuição assimĂ©trica positiva e a transformação logarĂtmica dos dados segue uma distribuição normal. Ă comumente aplicada em anĂĄlise de dados de tempo de espera, anĂĄlise financeira e modelagem de variĂĄveis com assimetria positiva. --- # Bibliografia - <p><cite>Morettin, P. A. and W. O. Bussab (2017). <em>EstatĂstica bĂĄsica</em>. Saraiva Educação SA.</cite></p> - <p><cite>Ross, S. (2009). <em>Probabilidade: um curso moderno com aplicaçÔes</em>. Bookman Editora.</cite></p> - <p><cite>MagalhĂŁes, M. N. (2006). <em>Probabilidade e variĂĄveis aleatĂłrias</em>. Edusp.</cite></p> - <p><cite>Correa, A. M. C. J. (1981). “Funcoes geradoras de momentos”.</cite></p>