class: center, middle, inverse, title-slide .title[ # Vetores Aleatórios e Transformações ] .subtitle[ ## Willams Batista Ferreira da Silva ] .institute[ ### Universidade Federal de Pernambuco - UFPE ] .date[ ### 2025 ] --- layout: true <div class="my-footer"><span> <div style="font-size: 14px;margin-bottom: -10px;"> <img src="imagens/book-cover.png" width="20px" align="center"> Vetores Aleatórios e Transformações - <a href=> Willams B. F. da Silva</a> </div> </span></div> --- # Estrutura <hr> <br/> * Introdução <pre></pre> * Definições Iniciais <pre></pre> * Vetores Aleatórios <pre></pre> * Transformações <pre></pre> * Referências <!-- # Introdução --> <!-- <hr> --> <!-- <br/> --> <!-- Na vida diária, enfrentamos incerteza em eventos familiares, como lançar um dado (resultados de 1 a 6) ou a durabilidade de uma lâmpada. --> <!-- <br/> --> <!-- Por exemplo, ao jogar um dado, embora conheçamos as opções possíveis, o resultado exato só é revelado após o lançamento. --> <!-- <br/> --> <!-- Essa incerteza é quantificada pela **probabilidade**. --> <!-- <!-- <!--Da mesma forma, com lâmpadas, seu tempo de funcionamento exato é desconhecido até que ela se apague. --> <!-- <!-- <!-- A **probabilidade** é uma ferramenta que nos ajuda a entender e lidar com essas incertezas. --> <!-- <!-- <br/> --> <!-- <!-- Ela fornece uma medida numérica que reflete a incerteza em um evento específico, facilitando a tomada de decisões informadas e a compreensão de fenômenos aleatórios em nosso cotidiano. --> <!-- # Introdução --> <!-- <hr> --> <!-- <pre></pre> --> <!-- **Probabilidade** é uma medida da frequência com que um evento ocorre em um conjunto de resultados possíveis, --> <!-- em que tal medida é expressada como um número entre 0 e 1, em que quanto mais próximo de 0 menor é a chance do evento ocorrer e quanto mais próximo 1, maior é a chance do evento ocorrer. --> <!-- <div align="center"> --> <!-- <img align="center" src="imagens/probability.png" width="350"> --> <!-- </div> --> <!-- A **Teoria das Probabilidades** é o ramo da matemática desenvolvida para tratar com incertezas (*aleatoriedade*). --> --- # Introdução <hr> Na realização de um fenômeno aleatório, é comum termos interesse em uma ou mais variáveis quantitativas. Essas quantidades são chamadas de **variáveis aleatórias**. <p style="text-align:center"> <img src="imagens/img1.jpeg" width = "450"> </p> O conhecimento de variáveis aleatórias é muito importante, pois permite a modelagem probabilística de fenômenos da vida real. --- <br/> <br/> <br/> <br/> <br/> <br/> <br/> <hr/> <h1 align="center"> DEFINIÇÕES INICIAIS</h1> <hr/> --- # Definições Iniciais <hr> <div class="standard"> <div class="standard2"> Definição 1 (Espaço Amostral): </div> O espaço amostral, denotado por `\(\Omega\)`, é o conjunto de todos os possíveis resultados de um experimento aleatório. <pre></pre> </div> <pre></pre> <div class="standard"> <div class="standard2"> Definição 2 (Ponto Amostral): </div> Um ponto amostral é um resultado individual em um espaço amostral de um experimento aleatório, e é denotado genericamente por `\(w\)`. Assim, escrevemos que `\(w \in \Omega\)` para indicar que o elemento `\(w\)` está em `\(\Omega\)`. <pre></pre> </div> </div> <pre></pre> <div class="standard"> <div class="standard2"> Definição 3 (Evento): </div> Um evento é um conjunto `\(A\)` tal que `\(A\subset \Omega\)`. <pre></pre> </div> <!-- Antes de entrar nos tópicos de Probabilidade, é importante definir uns conceitos --> <!-- iniciais como: --> <!-- <pre></pre> --> <!-- 1. Espaço Amostral; --> <!-- <pre></pre> --> <!-- 2. Ponto Amostral; --> <!-- <pre></pre> --> <!-- 3. Evento; --> <!-- <pre></pre> --> <!-- 4. Propriedades com conjuntos; --> <!-- --- --> <!-- # Definições Iniciais --> <!-- <hr> --> <!-- <pre></pre> --> <!-- ### Espaço Amostral --> <!-- <pre></pre> --> <!-- O espaço amostral, em que representamos por `\(\Omega\)`, é o conjunto de todos os possíveis resultados de um experimento aleatório. --> <!-- <div class="contrib"> --> <!-- <div class="blockin"> --> <!-- Exemplo: --> <!-- </div> --> <!-- - Lançamento de um dado honesto de seis faces: --> <!-- `\(\\\)` `\(\Omega\)` = {1, 2, 3, 4, 5, 6} --> <!-- - Lançamento de uma moeda: --> <!-- `\(\\\)` `\(\Omega\)` = {Cara, Coroa} --> <!-- <pre></pre> --> <!-- </div> --> <!-- O espaço amostral deve incluir todos os resultados possíveis e é a base para a definição de eventos e cálculos de probabilidades. --> <!-- --- --> <!-- # Definições Iniciais --> <!-- <hr> --> <!-- <pre></pre> --> <!-- ### Ponto Amostral --> <!-- <pre></pre> --> <!-- Um ponto amostral é um resultado individual em um espaço amostral de um experimento aleatório, --> <!-- e é denotado genericamente por `\(w\)`. Assim, escrevemos que `\(w \in \Omega\)` para indicar que o --> <!-- elemento `\(w\)` está em `\(\Omega\)`. --> <!-- <div class="contrib"> --> <!-- <div class="blockin"> --> <!-- Exemplo: --> <!-- </div> --> <!-- - Lançamento de uma moeda: --> <!-- - Espaço Amostral ( `\(\Omega\)` ) = {Cara, Coroa} --> <!-- - Pontos Amostrais: Cara, Coroa --> <!-- <pre></pre> --> <!-- </div> --> <!-- Cada ponto amostral representa uma das possíveis observações após a realização do experimento. --> <!-- --- --> <!-- # Definições Iniciais --> <!-- <hr> --> <!-- <pre></pre> --> <!-- ### Evento --> <!-- <pre></pre> --> <!-- Um evento é um subconjunto do espaço amostral que descreve um ou mais resultados possíveis de um experimento aleatório. --> <!-- <div class="contrib"> --> <!-- <div class="blockin"> --> <!-- Exemplo: --> <!-- </div> --> <!-- - Lançamento de um dado honesto de seis faces: --> <!-- - Espaço Amostral (Ω) = {1, 2, 3, 4, 5, 6} --> <!-- - Evento A: Obter um número par --> <!-- `\(\\\)` A = {2, 4, 6} --> <!-- <pre></pre> --> <!-- </div> --> <!-- Os eventos são a base para a análise de probabilidades e são definidos como subconjuntos do espaço amostral. --> --- # Definições Iniciais <hr> </div> <pre></pre> <div class="standard"> <div class="standard2"> Definição 4: </div> Seja `\(\mathcal{A}\)` uma classe de eventos aleatórios. Temos que se `\(\mathcal{A}\)` satisfaz as seguintes propriedades: - **A1.** `\(\Omega \in \mathcal{A}\)` - **A2.** Se `\(A \in \mathcal{A}\)`, então `\(A^{c} \in \mathcal{A}\)` - **A3.** Se `\(A_n \in \mathcal{A}\)` para `\(n=1,2,\ldots\)`, então `\(\cup_{n=1}^{\infty}A_n \in \mathcal{A}\)` então, `\(\mathcal{A}\)` é chamada de `\(\sigma\)`-álgebra de subconjuntos de `\(\Omega\)`. <pre></pre> </div> Além disso, seja `\(\mathcal{A}\)` uma `\(\sigma\)`-álgebra, então: - **P1.** Se `\(A, B \in \mathcal{A}\)`, temos que `\(A-B = A \cap B^c \in \mathcal{A}\)`; - **P2.** Se `\(A, B \in \mathcal{A}\)`, temos que `\(A \Delta B = (A \cap B^c)\cup (B \cap A^c) \in \mathcal{A}\)` - **P3.** Seja `\(\{A_n\}_{n \geq 1}\)`, uma sequência de elementos em `\(\mathcal{A}\)`, temos que `\(\cup_{n=1}^{\infty}A_n \in \mathcal{A}\)` e `\(\cap_{n=1}^{\infty}A_n \in \mathcal{A}\)`; --- # Definições Iniciais <hr> <div class="standard"> <div class="standard2"> Definição 5 (Medida de Probabilidade): </div> Seja `\(\Omega\)` um conjunto não-vazio, `\(\mathcal{A}\)` uma `\(\sigma\)`-álgebra de subconjuntos de `\(\Omega\)`. A função `\(P: \mathcal{A} \rightarrow \mathbb{R}\)` é dita ser uma medida de probabilidade se satisfaz os seguintes axiomas de Kolmogorov. Seja `\(A\in \mathcal{A}\)`, então - **Ax1)** `\(P(A)\geq 0\)`; - **Ax2)** `\(P(\Omega) = 1\)`; - **Ax3)** Seja `\(\{A_n\}_{n \geq 1}\)`, uma sequência de elementos em `\(\mathcal{A}\)`, tal que `\(A_i \cap A_j = \emptyset, \forall i \neq j\)`, isto é, disjuntos 2 a 2, então `\(P(\cup_{n=1}^\infty A_n) = \sum_{n=1}^\infty P(A_n)\)`. <pre></pre> </div> <div class="standard"> <div class="standard2"> Definição 6 (Suporte): </div> `\(S\in \mathcal{A}\)` é dito ser suporte para `\(P\)` se `\(P(S)=1\)`. <pre></pre> </div> --- # Definições Iniciais <hr> Dado os axiomas de Kolmogorov, é possível provar as seguintes propriedades: - **P4.** `\(P(A) = 1 - P(A^c)\)`; - **P5.** `\(0 \leq P(A) \leq 1\)`; - **P6.** Se `\(A, B \in \mathcal{A}\)` e `\(A \subset B\)`, então `\(P(A) \leq P(B)\)`; - **P7.** `\(P\left(\bigcup_{n=1}^{\infty} A_n\right) \leq \sum_{n=1}^\infty P(A_n)\)`; - **P8.** (Continuidade da Medida) Se `\(\{A_n\}_{n \geq 1}\)` é uma sequência crescente de eventos em `\(\mathcal{A}\)`, isto é, `\(A_n \subset A_{n+1}, \forall n \geq 1\)`, então `\begin{align} P\left(\bigcup_{n=1}^{\infty} A_n\right) = \lim_{n \to \infty} P(A_n). \end{align}` e se `\(\{A_n\}_{n \geq 1}\)` é uma sequência decrescente de eventos em `\(\mathcal{A}\)`, isto é, `\(A_{n+1} \subset A_n, \forall n \geq 1\)`, então `\begin{align} P\left(\bigcap_{n=1}^{\infty} A_n\right) = \lim_{n \to \infty} P(A_n). \end{align}` --- # Definições Iniciais <hr> <br/> <div class="standard"> <div class="standard2"> Definição 7 (Espaço de Probabilidade): </div> Um espaço de probabilidade é a tripla `\((\Omega,\mathcal{A}, P)\)` em que `\(\Omega \neq \emptyset\)`, `\(\mathcal{A}\)` é uma `\(\sigma\)`-álgebra de subconjuntos de `\(\Omega\)` e `\(P:\mathcal{A} \rightarrow \mathbb{R}\)` é uma medida de probabilidade em `\(\mathcal{A}\)`. <pre></pre> </div> <p style="text-align:center"> <img src="imagens/probability_space.png" width = "380px"> </p> <!-- --- --> <!-- <br/> --> <!-- <br/> --> <!-- <br/> --> <!-- <br/> --> <!-- <br/> --> <!-- <br/> --> <!-- <br/> --> <!-- <hr/> --> <!-- <h1 align="center"> VARIÁVEIS ALEATÓRIAS E FUNÇÃO DE DISTRIBUIÇÃO </h1> --> <!-- <hr/> --> --- # Definições Iniciais <hr> <div class="standard"> <div class="standard2"> Definição 8 (Variável Aleatória): </div> Seja `\((\Omega,\mathcal{A}, P)\)` um espaço de probabilidade. Denominamos de variável aleatória, qualquer função `\(X:\Omega \rightarrow \mathbb{R}\)` tal que `\begin{align} X^{-1} (I) = \{ \omega \in \Omega : X(\omega) \in I\} \in \mathcal{A}, \end{align}` para todo intervalo `\(I \subset \mathbb{R}\)`. Em palavras, `\(X\)` é variável aleatória se sua imagem inversa para intervalos `\(I \subset \mathbb{R}\)` pertencem a `\(\sigma\)`-álgebra `\(\mathcal{A}\)`. <pre></pre> </div> <div class="standard"> <div class="standard2"> Definição 9 (Distribuição de X): </div> Seja `\((\Omega,\mathcal{A}, P)\)` um espaço de probabilidade em que `\(X:\Omega \rightarrow \mathbb{R}\)` é uma variável aleatória (v.a). Temos que `\(\mu_X : \mathbb{R} \rightarrow [0,1]\)` é chamado de distribuição da v.a `\(X\)`, em que `\(\mu_X=PX^{-1}\)` (notação do Billingsley) é uma medida de probabilidade em `\(\mathbb{R}\)`. Além disso, para todo `\(A\in\mathbb{R}\)`, temos que `\begin{align} \mu_X(A) = PX^{-1} (A) = P(X \in A) \end{align}` <pre></pre> </div> --- # Definições Iniciais <hr> <pre></pre> <div class="standard"> <div class="standard2"> Definição 10 (Função de Distribuição de X): </div> Sendo `\(X\)` uma variável aleatória em `\((\Omega,\mathcal{A}, P)\)`, sua função de distribuição é definida por `\begin{align} F_X(x) = \mu_X\left((-\infty,x]\right) = P(X \in (-\infty,x]) = P(X \leq x), \end{align}` com `\(x\in\mathbb{R}\)`. <pre></pre> </div> <pre></pre> Propriedades da Função de Distribuição: <pre></pre> - **F1)** `\(\lim\limits_{x \to -\infty} F_X(x) = 0\)` e `\(\lim\limits_{x \to +\infty} F_X(x) = 1\)`; - **F2)** `\(F_X\)` é contínua a direita; - **F3)** `\(F_X\)` é não decrescente, isto é, `\(F_X(x) \leq F_X(y)\)` sempre que `\(x \leq y\)`, `\(\forall x,y \in \mathbb{R}\)`. --- <br/> <br/> <br/> <br/> <br/> <br/> <br/> <hr/> <h1 align="center"> VETORES ALEATÓRIOS</h1> <hr/> --- # Vetores Aleatórios <hr> <pre></pre> <div class="standard"> <div class="standard2"> Definição 11 (Vetores Aleatórios): </div> Seja `\((\Omega,\mathcal{A}, P)\)` um espaço de probabilidade, então, uma função `\(\boldsymbol X = (X_1, \ldots, X_n): \Omega \rightarrow \mathbb R^k\)` que é `\(\mathcal A\)`-mensurável, é dito ser vetor aleatório se \begin{align} \boldsymbol X^{-1} (\boldsymbol H) \in \mathcal{A}, \forall \boldsymbol H \in \mathbb R^k \end{align} Em outras palavras, `\(\boldsymbol X\)` é vetor aleatório se para cada `\(i = 1,\ldots,k\)` e `\(H_i \subset \mathbb R\)`, tivermos `\begin{align} X_i^{-1} (H_i) \in \mathcal{A}, \end{align}` ou seja, cada `\(X_i\)` é variável aleatória. <pre></pre> </div> --- # Distribuições no `\(\mathbb{R}^k\)` <hr> <div class="standard"> <div class="standard2"> Definição 12 (Distribuição Conjunta do Vetor X): </div> Seja `\((\Omega,\mathcal{A}, P)\)` um espaço de probabilidade e seja `\(\boldsymbol X = (X_1, \ldots, X_n): \Omega \rightarrow \mathbb R^k\)` um vetor aleatório. Defina `\(\mu_{\boldsymbol X}: \mathbb R^k \rightarrow [0,1]\)` como sendo a medida de probabilidade em `\(\mathbb{R}^k\)` dada por `\(\mu_{\boldsymbol X} = P\boldsymbol X^{-1}\)`. Ou seja, `\begin{align} \mu_{\boldsymbol X}(\boldsymbol H) = P\boldsymbol X^{-1}(\boldsymbol H) = P(\boldsymbol X \in \boldsymbol H), \forall \boldsymbol H \in \mathbb R^k. \end{align}` Então, `\(\mu_{\boldsymbol X}\)` é chamada de distribuição conjunta de `\(\boldsymbol X\)` ou simplesmente distribuição de `\(\boldsymbol X\)`. <pre></pre> </div> <div class="standard"> <div class="standard2"> Definição 13 (Função de Distribuição do Vetor X): </div> Seja `\(F_{\boldsymbol X}: \mathbb R^k \rightarrow \mathbb [0,1]\)` uma função definida como `\(F_{\boldsymbol X}(\boldsymbol x) = \mu_{\boldsymbol X}(S_{\boldsymbol X})\)`, em que `\(S_{\boldsymbol X} = (-\infty,x_1]\times\cdots\times(\infty,x_k]\)` o conjunto obtido a partir de `\({\boldsymbol X} = (X_1, \ldots, X_n)\)`. Então, `\(F_{\boldsymbol X}\)` é a função de distribuição conjunta de `\(X_1, \ldots, X_n\)` ou simplesmente função de distribuição de `\(\boldsymbol X\)`. <pre></pre> </div> --- # Distribuições no `\(\mathbb{R}^k\)` <hr> Seja `\({\boldsymbol X}\)` um vetor aleatório em `\((\Omega, \mathcal A, P)\)` então, para qualquer `\(\boldsymbol x \in \mathbb R^k\)`, `\(F_{\boldsymbol X}(\boldsymbol x)\)` satisfaz as seguintes propriedades: - **FC1)** `\(F_{\boldsymbol X}(\boldsymbol x)\)` é não decrescente em cada uma das suas coordenadas. - **FC2)** `\(F_{\boldsymbol X}(\boldsymbol x)\)` é contínua a direita em cada uma das suas coordenadas; - **FC3)** Se para algum `\(j\)`, `\(x_j \rightarrow -\infty\)`, então `\(F_{\boldsymbol X}(\boldsymbol x) \rightarrow 0\)`; e se para todo `\(j\)`, `\(x_j \rightarrow \infty\)`, então `\(F_{\boldsymbol X}(\boldsymbol x) \rightarrow 1\)` - **FC4)** `\(F_{\boldsymbol X}(\boldsymbol x)\)` é tal que, `\(\forall a_i, b_i \in \mathbb R\)`, `\(a_i < b_i\)`, `\(1 \leq i \leq k\)`, temos `\(\\\)` $$P(a_1 < X_1 \leq b_1, \ldots, a_k < X_k \leq b_k) \geq 0. $$ --- # Distribuições no `\(\mathbb{R}^k\)` <hr> **Demonstração:** --- <!-- # Exemplo --> <!-- <hr> --> <!-- --- --> <!-- # Independência --> <!-- <hr> --> <!-- <div class="standard"> --> <!-- <div class="standard2"> --> <!-- Definição 14 (Independência de `\(\sigma\)`-álgebras): --> <!-- </div> --> <!-- Seja `\((\Omega, \mathcal{A}, P)\)` um espaço de probabilidade. Uma coleção de `\(\sigma\)`-álgebras `\(\{\mathcal{G}_i\}_{i \in I} \subset \mathcal{A}\)` é independente se, para qualquer subcoleção finita de índices `\(\{i_1, \dots, i_n\} \subset I\)` e qualquer escolha de eventos `\(A_{i_k} \in \mathcal{G}_{i_k}\)`, --> <!-- \begin{align} --> <!-- P\left( \bigcap_{k=1}^n A_{i_k} \right) = \prod_{k=1}^n P(A_{i_k}) --> <!-- \end{align} --> <!-- </div> --> <!-- <div class="standard"> --> <!-- <div class="standard2"> --> <!-- Definição 15 (Menor `\(\sigma\)`-álgebra gerada por X): --> <!-- </div> --> <!-- A `\(\sigma\)`-álgebra gerada por `\(X\)`, denotada `\(\sigma(X)\)`, é a menor `\(\sigma\)`-álgebra de `\(\mathcal{F}\)` que torna a função `\(X\)` mensurável. --> <!-- </div> --> <!-- <div class="standard"> --> <!-- <div class="standard2"> --> <!-- Definição 16 (Independência de Vetores Aleatórios): --> <!-- </div> --> <!-- Uma coleção de vetores aleatórios `\(\{X_i\}_{i \in I}\)` é independente se, e somente se, as `\(\sigma\)`-álgebras geradas por eles, `\(\{\sigma(X_i)\}_{i \in I}\)`, são independentes. --> <!-- </div> --> <!-- --- --> # Independência <hr> <div class="standard"> <div class="standard2"> Funções de distribuição </div> <b>c1)</b> Se `\(X_1, \ldots, X_k\)` são independentes, então `\begin{align} F_{X_1, \ldots, X_k}(x_1, \ldots, x_k) = \prod\limits_{i=1}^k F_{X_i}(x_i), \forall (x_1, \ldots, x_k) \in \mathbb R^k \end{align}` ----- <b>c2)</b> Reciprocamente, se existem funções `\(F_1, \ldots, F_k\)` tais que `\begin{align} \lim\limits_{x \rightarrow \infty} F_i(x) = 1, \forall i \text{ e } \end{align}` `\(F_{X_1,\ldots,X_k}(x_1,\ldots,x_k) = \prod\limits_{i=1}^kF_i(x_i), \forall (x_1,\ldots,x_k) \in \mathbb R^k,\)` então `\(X_1, \ldots, X_k\)` são independentes e `\(F_i = F_{X_i}, \forall i = 1,\ldots,k\)`. <pre></pre> </div> --- # Vetor aleatório discreto <hr> <div class="standard"> <div class="standard2"> Definição 14 (Função de Massa de Probabilidade do vetor X): </div> Dizemos que `\(\boldsymbol X\)` é um vetor aleatório discreto, quando existir `\(S \subset \mathbb R^k\)` contável (finito ou enumerável) tal que `\(\mu_{\boldsymbol X}(S) = 1\)`. Neste caso, a função `\begin{align} P_{\boldsymbol X}({\boldsymbol x}) = \mu_{\boldsymbol X}(\left\lbrace \boldsymbol x \right\rbrace) = P( \boldsymbol X = \boldsymbol x), \forall{\boldsymbol x} \in \mathbb R^k \end{align}` é chamada <b>função de probabilidade</b> de `\(\boldsymbol X\)`. Temos que `\(\boldsymbol X = (X_1, \ldots, X_k)\)` é vetor aleatório discreto, se e somente se, cada variável `\(X_i\)`, `\(i = 1,\ldots,k\)` é discreto. <pre></pre> </div> Diz-se que `\(\boldsymbol X\)` segue uma distribuição multinomial com parâmetros `\(n\)` e `\(\boldsymbol p=(p_1,\ldots,p_k)\)`, denotado por `\(\boldsymbol X \sim \text{Mult}(n,\boldsymbol p)\)` se sua função de probabilidade é dada por `\begin{align} P_{\boldsymbol X}(\boldsymbol x) = P(\boldsymbol X = \boldsymbol x) = \frac{n!}{x_1! x_2! \ldots x_k!} p_1^{x_1} p_2^{x_2} \ldots p_k^{x_k} \end{align}` onde `\(\boldsymbol x = (x_1, x_2, \ldots, x_k)\)` é tal que `\(x_i = 0, 1, 2, \ldots\)`, para `\(i = 1, 2, \ldots, k\)` e `\(\sum_{i=1}^k x_i = n\)`. --- # Vetor aleatório discreto <hr> <pre></pre> <div class="contrib"> <div class="blockout"> </div> Dado `\(\boldsymbol X = (X_1, \ldots, X_k)\)` vetor aleatório, temos que `\([X_1 \leq x_1, \ldots,X_i \leq x_i, \ldots, X_k \leq x_k] \uparrow [X_i \leq x_i], \, j \rightarrow \infty, \, j \neq i\)` Logo, `\(P(X_1 \leq x_1, \ldots,X_i \leq x_i, \ldots, X_k \leq x_k) \uparrow P(X_i \leq x_i), \, j \rightarrow \infty, \, j \neq i\)` ou seja, `\(\lim\limits_{\forall x_j \to \infty \\ j \neq i} F_{\boldsymbol X}({\boldsymbol x}) = P (X_i \leq x_i) = F_{X_i}(x_i)\)` `\(F_{X_i}(x_i)\)` é chamada <b>função de distribuição marginal</b> de `\(X_i\)`, `\(i = 1, \ldots, k\)`. <pre></pre> </div> --- # Vetor aleatório discreto <hr> <pre></pre> <pre></pre> <div class="standard"> <div class="standard2"> <b>Função de distribuição marginal</b> </div> Seja `\(X_i\)` com `\(i = 1, \ldots, k\)` a função de distribuição marginal é dada por `\begin{align} F_{X_i}(x_i) = P (X_i \leq x_i) \end{align}` <pre></pre> </div> <div class="standard"> <div class="standard2"> <b>Função de probabilidade marginal</b> </div> Seja `\(X_i\)` com `\(i = 1, \ldots, k\)` a função de probabilidade marginal é dado por `\begin{align} P_{X_i}(x) = P (X_i = x) \end{align}` <pre></pre> </div> --- # Vetor aleatório contínuo <hr> <div class="standard"> <div class="standard2"> Definição 15 (Função de Densidade do vetor X): </div> Dizemos que `\(\boldsymbol X\)` é um vetor aleatório que possui distribuições absolutamentes contínuas se existir `\(f_{\boldsymbol X} \geq 0\)` tal que, `\(\forall H \in \mathbb R^k\)`, temos `\begin{align} F_{\boldsymbol X}(H) = \mu_{\boldsymbol X}(H) = \idotsint\limits_H f_{\boldsymbol X}(x_1, \ldots, x_k)dx_1\ldots dx_k, \end{align}` em que `\(f_{\boldsymbol X}(x_1, \ldots, x_k)\)` é chamada <b>função densidade</b> de `\(\boldsymbol X\)`. <pre></pre> </div> Seja `\(\boldsymbol X = (X_1, X_2, \ldots, X_k)\)` um vetor aleatório com distribuição Normal Multivariada, se sua função densidade é dada por `\begin{align} f_{\boldsymbol X}(\boldsymbol x) = \frac{1}{(2\pi)^{k/2} |\Sigma|^{1/2}} \exp \left( -\frac{1}{2} (\boldsymbol x - \boldsymbol \mu)^T \boldsymbol \Sigma^{-1} (\boldsymbol x - \boldsymbol \mu) \right) \end{align}` onde `\(\boldsymbol x = (x_1, x_2, \ldots, x_k) \in \mathbb R^k\)`, `\(\boldsymbol \mu = (\mu_1, \mu_2, \ldots, \mu_k) \in \mathbb R^k\)` é o vetor de médias e `\(\boldsymbol \Sigma\)` é a matriz de covariância positiva definida de ordem `\(k \times k\)`. --- # Vetor aleatório contínuo <hr> <pre></pre> <pre></pre> <div class="standard"> <div class="standard2"> <b>Função de distribuição marginal</b> </div> Seja `\(X_i\)` com `\(i = 1, \ldots, k\)` a função de distribuição marginal é dada por `\begin{align} F_{X_i}(x_i) = P (X_i \leq x_i) \end{align}` <pre></pre> </div> <pre></pre> <div class="standard"> <div class="standard2"> <b>Função de densidade marginal</b> </div> Seja `\(X_i\)` com `\(i = 1, \ldots, k\)` a função densidade marginal é dado por `\begin{align} P_{X_i}(x) = f_{X_i}(x) \end{align}` <pre></pre> </div> --- # Independência <hr> <div class="standard"> <div class="standard2"> Função de probabilidade </div> Assim para o caso discreto, quando temos como medida a medida de contagem, se `\(X_1, \ldots, X_k\)` são independentes, então `\begin{align} P(X_1 = x_1, \ldots, X_k = x_k) = \prod\limits_{i=1}^kP(X_i = x_i) \end{align}` </div> <div class="standard"> <div class="standard2"> Função densidade </div> E no caso absolutamente contínuo, quando temos a medida de Lebesgue, se `\(X_1, \ldots, X_k\)` são independentes, então `\begin{align} f_{\boldsymbol X}(x_1, \ldots, x_k) = \prod\limits_{i=1}^k f_{X_i}(x_i) \end{align}` a função densidade conjunta fatora nas densidades marginais. <pre></pre> </div> --- # Valor Esperado <hr> <pre></pre> <div class="standard"> <div class="standard2"> Definição 16 (Valor Esperado de X): </div> Seja `\(X\)` uma variável aleatória em `\((\Omega, \mathcal{A}, P)\)`. O valor esperado (ou esperança) de `\(X\)` é a integral `\begin{align} E(X) = \int X dP = \int_{\Omega} X(\omega) P(d\omega), \end{align}` desde que a integral convirja. Se `\(X\)` tem função densidade `\(f_X\)`, então `\begin{align} E(X) = \int_{-\infty}^{+\infty} x f_X(x) dx, \end{align}` e se `\(X\)` tem função de probabilidade `\(P_X\)`, então `\begin{align} E(X) = \sum\limits_{x\in S} x P_X(x). \end{align}` <pre></pre> </div> --- # Esperança e Covariância de um Vetor Aleatório <hr> <div class="standard"> <div class="standard2"> Definição 17 (Valor Esperado do vetor X): </div> Seja `\(\boldsymbol X = (X_1, \ldots, X_k)\)` um vetor aleatório em `\((\Omega, \mathcal A, P)\)`. A esperança de `\(\boldsymbol X\)` é o vetor `\begin{align} E(\boldsymbol X) = \left( E(X_1), E(X_2), \ldots, E(X_k) \right)^\top \end{align}` desde que cada `\(E(X_i)\)` exista finitamente. <pre></pre> </div> <div class="standard"> <div class="standard2"> Definição 18 (Covariância do vetor X): </div> Seja `\(\boldsymbol X = (X_1, \ldots, X_k)\)` um vetor aleatório em `\((\Omega, \mathcal A, P)\)`. A matriz de covariância de `\(\boldsymbol X\)` é a matriz quadrada `\(k \times k\)` dada por `\begin{align} \text{Cov}(\boldsymbol X) = E \left[ (\boldsymbol X - E(\boldsymbol X))(\boldsymbol X - E(\boldsymbol X))^\top \right] \end{align}` desde que cada `\(E(X_i^2)\)` seja finito. <pre></pre> </div> --- # Exemplos <hr> Seja `\(\boldsymbol X = (X_1, X_2, \ldots, X_k)\)` um vetor aleatório com distribuição Normal Multivariada, ou seja, `\(\boldsymbol X \sim N_k(\boldsymbol \mu, \Sigma)\)`, então `\begin{align} E(\boldsymbol X) = \boldsymbol \mu \end{align}` e `\begin{align} \text{Cov}(\boldsymbol X) = \Sigma \end{align}` Seja `\(\boldsymbol X = (X_1, X_2, \ldots, X_k)\)` um vetor aleatório com distribuição multinomial, ou seja, `\(\boldsymbol X \sim \text{Mult}(n, \boldsymbol p)\)`, então `\begin{align} E(\boldsymbol X) = n \boldsymbol p \end{align}` e `\begin{align} \Sigma = \begin{pmatrix} n p_1 (1 - p_1) & -n p_1 p_2 & \cdots & -n p_1 p_k \\ -n p_2 p_1 & n p_2 (1 - p_2) & \cdots & -n p_2 p_k \\ \vdots & \vdots & \ddots & \vdots \\ -n p_k p_1 & -n p_k p_2 & \cdots & n p_k (1 - p_k) \end{pmatrix} \end{align}` --- <br/> <br/> <br/> <br/> <br/> <br/> <br/> <hr/> <h1 align="center">TRANSFORMAÇÕES</h1> <hr/> --- # Método da FDA <hr> Seja `\(Y = g(X)\)`. Escrevemos a FDA de Y como `$$F_Y(y) = P(Y \le y)$$` Note que podemos substituir `\(Y\)` por `\(g(X)\)`, então `$$F_Y(y) = P(g(X) \le y)$$` Daí, diferenciando (se for contínua) temos que a função de densidade de probabilidade de `\(Y\)` é dada por: `$$f_Y(y) = \frac{d}{dy} F_Y(y)$$` - Exemplo: suponha `\(X \sim \text{Unif}(0, 1)\)` e queremos a distribuição de `\(Y = X^2\)`. * `\(F_Y(y) = P(Y \le y) = P(X^2 \le y)\)`. * Para `\(y \in (0, 1)\)`, isso é `\(P(X \le \sqrt{y})\)`. * A FDA de `\(X\)` é `\(F_X(x) = x\)`, então `\(F_Y(y) = \sqrt{y}\)`. * Diferenciando para a função de densidade de probabilidade: `\(f_Y(y) = \frac{d}{dy} (\sqrt{y}) = \frac{1}{2\sqrt{y}}\)` para `\(0 < y < 1\)`. --- # Soma e diferença de variáveis <hr> Dadas duas variáveis `\(X\)` e `\(Y\)` com densidade conjunta `\(f_{XY}\)`, então a função densidade da soma e da diferença entre essas variáveis são dadas por, respectivamente <pre></pre> <div class="standard"> <div class="standard2"> Função densidade da Soma </div> `\begin{align} f_{X+Y}(z) = \int\limits_{-\infty}^{+\infty} f_{X,Y}(x, z-x)dx \end{align}` </div> <div class="standard"> <div class="standard2"> Função densidade da Diferença </div> `\begin{align} f_{X-Y}(w) = \int\limits_{-\infty}^{+\infty} f_{X,Y}(w+yx, y)dy \end{align}` </div> No caso de `\(X\)` e `\(Y\)` independentes, a densidade da soma pode ser escrita como produto das densidades marginais, e neste caso, a densidade da soma recebe o nome de **convolução** das densidade de `\(X\)` e `\(Y\)`. --- # Exemplos <hr> <pre></pre> <div class="contrib"> <div class="blockin"> Exemplo: </div> Sejam `\(X_1, X_2, \ldots, X_k\)` variáveis aleatórias independentes com distribuição Bernoulli de parâmetros `\(p\)`. Sendo `\(Y = X_1 + X_2 + \ldots + X_k\)`, então `\(Y\)` tem distribuição Binomial de parâmetros `\(n\)` e `\(p\)`, ou seja, `\(Y \sim Binominal (n, p)\)`. <pre></pre> </div> <pre></pre> <div class="contrib"> <div class="blockin"> Exemplo: </div> Sejam `\(X_1\)` e `\(X_2\)` duas variáveis aleatórias independentes com distribuição `\(X_1 \sim N(\mu_1,\sigma_1^2)\)` e `\(X_2 \sim N(\mu_2,\sigma_2^2)\)`, respectivamente. Sendo `\(Y = X_1 - X_2\)`, então `\(Y\)` tem distribuição Normal de parâmetros `\(\mu_Y = \mu_1 - \mu_2\)` e `\(\sigma_Y^2 = \sigma_1^2 + \sigma_2^2\)`, ou seja, `\(Y \sim \mathcal{N} (\mu_1 - \mu_2, \sigma_1^2 + \sigma_2^2)\)`. <pre></pre> </div> --- # Distribuição do Mínimo e do Máximo <hr> Considere o conjunto `\(X_1, X_2, \ldots, X_k\)` de variáveis aleatórias independentes, cujas funções de distribuição são `\(F_1, F_2, \ldots, F_k\)`, respectivamente. As expressões da função de distribuição de `\(Y_1 = \min(X_1, X_2, \ldots, X_k)\)` e `\(Y_k = \max(X_1, X_2, \ldots, X_k)\)` são dadas respectivamente por: <pre></pre> <div class="standard"> <div class="standard2"> Função de distribuição do mínimo </div> `\begin{align} F_{Y_1}(z) = 1 - \prod\limits_{i=1}^{k} \left[1 - F_{X_i}(z) \right] \end{align}` <pre></pre> </div> <div class="standard"> <div class="standard2"> Função de distribuição do máximo </div> `\begin{align} F_{Y_k}(w) = \prod\limits_{i=1}^{k} F_{X_i}(w) \end{align}` <pre></pre> </div> --- # Distribuição do Mínimo e do Máximo <hr> <pre></pre> <div class="contrib"> <div class="blockout"> </div> <u><b>Demonstração do mínimo:</b></u> Para obter a distribuição do <u>mínimo</u>, utilizando um argumento lógico frequetemente útil nesses casos: Se o mínimo é maior que `\(z\)`, todas as variáveis precisam ser maiores que `\(z\)`. Assim, `$$P(Y_1 > z) = P(\min(X_1, \ldots, X_k) > z) = P(X_1 > z, \ldots, X_k > z)$$` Pela independência entre variáveis essa última probabilidade por ser escrita como `$$P(Y_1 > z) = P(X_1 > z) \ldots P(X_k > z) = \prod\limits_{i=1}^{k}\left[ 1 - F_{X_i}(z)\right]$$` Logo, tomando o complementar, a expressão de `\(F_{Y_1}(z)\)` é obtida. <pre></pre> </div> --- # Distribuição do Mínimo e do Máximo <hr> <pre></pre> <div class="contrib"> <div class="blockout"> </div> <u><b>Demonstração do máximo:</b></u> Para o <u>máximo</u>, observe que se o máximo é menor que `\(z\)`, então todas as variáveis também são. Assim, `$$P(Y_k \leq w) = P(\max(X_1, \ldots, X_k) \leq w) = P(X_1 \leq w, \ldots, X_k \leq w)$$` Pela independência entre variáveis essa última probabilidade por ser escrita como `$$P(Y_k \leq w) = P(X_1 \leq w) \ldots P(X_k \leq w) = \prod\limits_{i=1}^{k} F_{X_i}(w)$$` <pre></pre> </div> --- # Densidade do produto e do quociente <hr> Sejam `\(X\)` e `\(Y\)` duas variáveis aleatórias contínuas com densidade conjunta `\(f_{X,Y}\)`. As funções densidade do produto e do quociente são, respectivamente, dadas por: <pre></pre> <div class="standard"> <div class="standard2"> Função densidade do Produto </div> `\begin{align} f_{XY}(u) = \int\limits_{-\infty}^{+\infty} \frac{1}{|x|} f_{X,Y} \left( x,\frac{u}{x} \right) dx \end{align}` </div> <div class="standard"> <div class="standard2"> Função densidade do Quociente </div> `\begin{align} f_{X/Y}(v) = \int\limits_{-\infty}^{+\infty} |y| f_{X,Y} \left( vy,y \right) dy \end{align}` </div> para variáveis contínuas, pode-se usar o <u>Método do Jacobiano</u>, para obter a distribuição de transformação de variáveis aleatórias. --- # Método do Jacobiano <hr> <br> Sejam `\(U \subset \mathbb{R}^k\)` e `\(V \subset \mathbb{R}^k\)` abertos em `\(\mathbb{R}^k\)` e seja `\(g: U \rightarrow V\)` função invertível, com inversa `\(h = g^{-1}: V \rightarrow U\)`, tais que `$$g(x_1, \ldots,x_n) = [g_1(x_1, \ldots,x_n), \ldots, g_k(x_1, \ldots,x_n)] = (y_1, \ldots, y_k),$$` em que, $$ x_1 = h_1(y_1, \ldots, y_k), \ldots, x_k = h_k(y_1, \ldots, y_k). $$ Definimos o Jacobiano, `\(\boldsymbol J\)`, por `\begin{align} \boldsymbol J = \left( \frac{\partial x_i}{\partial y_i} \right) = \left( \begin{array}{ccc} \frac{\partial x_1}{\partial y_1} & \cdots & \frac{\partial x_1}{\partial y_k} \\ \vdots & \ddots & \vdots \\ \frac{\partial x_k}{\partial y_1} & \cdots & \frac{\partial x_k}{\partial y_k} \\ \end{array} \right) \nonumber \end{align}` --- # Método do Jacobiano <hr> <pre></pre> Então, se `\(| \boldsymbol J | \neq 0, \, \forall \boldsymbol y \in V\)`, temos o seguinte resultado <div class="standard"> <div class="standard2"> Método do Jacobiano: </div> A distribuição conjunta de `\(Y_1, \ldots, Y_k\)` é dada por: `\begin{align} f_{{\boldsymbol Y}}(y_1, \ldots, y_k) = \left\lbrace \begin{array}{cc} f(h(y_1, \ldots, y_k)) | \boldsymbol J |, & \text{ se } {\boldsymbol y} \in V \\ 0, & \text{ se } {\boldsymbol y} \notin V \\ \end{array} \right. \end{align}` em que `\(| \boldsymbol J |\)` é o determinante do Jacobiano, ou seja, `\begin{align} | \boldsymbol J | & = \det \left( \begin{array}{ccc} \frac{\partial x_1}{\partial y_1} & \cdots & \frac{\partial x_1}{\partial y_k} \\ \vdots & \ddots & \vdots \\ \frac{\partial x_k}{\partial y_1} & \cdots & \frac{\partial x_k}{\partial y_k} \\ \end{array} \right) \end{align}` <pre></pre> </div> --- # Método do Jacobiano <hr> <pre></pre> <div class="contrib"> <div class="blockin"> Exemplo: </div> Sejam `\(X\)` e `\(Y\)` variáveis aleatórias independentes com `\(X,Y \sim N(0,1)\)`. Sejam `\(R\)` e `\(\Theta\)` variáveis aleatórias em `\((0,+\infty)\times(0,2\pi)\)`, tais que $$ X = R cos \Theta \text{ e } Y = Rsen \Theta $$ Desejamos aqui obter a <b>densidade conjunta</b> de `\(R\)` e `\(\Theta\)`. <hr/> <br/> <br/> <br/> <br/> <br/> <br/> <br/> <br/> <pre></pre> </div> --- # Método do Jacobiano <hr> <pre></pre> <div class="contrib"> <div class="blockin"> Exemplo: </div> Sejam `\(X\)` e `\(Y\)` variáveis aleatórias independentes com `\(X,Y \sim N(0,1)\)`. Sejam `\(R\)` e `\(\Theta\)` variáveis aleatórias em `\((0,+\infty)\times(0,2\pi)\)`, tais que $$ X = R cos \Theta \text{ e } Y = R sen \Theta $$ Desejamos aqui obter a <b>densidade conjunta</b> de `\(R\)` e `\(\Theta\)`. <hr/> <b><i>Resposta:</i></b> Sejam `\(U = (0,\infty)\times(0,2\pi)\)` e `\(V = \mathbb{R}^2\)`. Consideremos a função `\(g:\underset{(r,\theta)\rightarrow(x,y)}{\mathrm{U \rightarrow V}}\)` tal que `\(x = r cos \theta\)` e `\(x = r sen \theta\)`. Seja `\(h = g^{-1}\)`. Então, `\begin{align} |\boldsymbol J| & = \det \left( \begin{array}{cc} \frac{\partial x}{\partial r} & \frac{\partial x}{\partial \theta} \\ \frac{\partial y}{\partial r} & \frac{\partial y}{\partial \theta} \\ \end{array} \right) = \det \left( \begin{array}{cc} cos \theta & -r sen \theta \\ sen \theta & r cos \theta \\ \end{array} \right) = r \nonumber \end{align}` <pre></pre> </div> --- # Método do Jacobiano <hr> <pre></pre> <div class="contrib"> <div class="blockin"> Exemplo continuação </div> Dado que `\(X\)` e `\(Y\)` são independentes sua função densidade conjunta é dada por $$ f(x,y) = \frac{1}{2 \pi} e^{-\frac{1}{2} (x^2 + y^2)} $$ portanto, pelo método jacobiano, temos que a densidade conjunta de `\(R\)` e `\(\Theta\)` em `\((0, +\infty) \times (0, 2 \pi)\)` é dada por $$ f(r,\theta) = f( x(r,\theta), y(r,\theta)) | \boldsymbol J | = \dfrac{r}{2 \pi} e^{-\frac{r^2}{2}} $$ uma vez que temos `\(x^2 + y^2 = r^2\)`. <pre></pre> </div> --- # Bibliografia <hr/> <pre></pre> **Bibliografia utilizada** 1. Billingsley, P., *Probability and Measure* (3rd ed.). John Wiley & Sons, (1995) 2. JAMES, Barry R. *Probabilidade: um curso em nível intermediário*. 3.ed. Rio de Janeiro: IMPA, 2006. 3. MAGALHÃES, M.N., *Probabilidade e Variáveis Aleatórias*, IME-USP, 2010. --- <br/> <br/> <br/> <br/> <hr/> <br/> <h1 style="text-align: center;"> OBRIGADO! </h1> <br/> <hr/> <br/> <br/> <br/> <br/> <h3 style="margin-top:-20px;"> SUPORTE COMPUTACIONAL </h3> <hr/> * Slide produzido com Rmarkdown, no `RStudio`: [https://posit.co/](https://posit.co/) * com auxílio do pacote `Xaringan` : [https://github.com/yihui/](https://github.com/yihui/xaringan) [xaringan](https://github.com/yihui/xaringan) e * compilação em `LaTeX` : [https://www.latex-project.org/](https://www.latex-project.org/)