#install.packages("gtools")
#install.packages("ggforce")
#install.packages("mosaicCalc")
require(gtools)
require(tidyverse)
require(ggforce)
options(kableExtra.latex.load_packages = TRUE)
require(kableExtra)
require(mosaicCalc)
require(gridExtra)
require(numDeriv)
Definição: A função geradora de momentos da variável \(X\) é definida por
\[ M_X(t) =E(e^{tX}) \left\{ \begin{array}{ll} \sum_{x}e^{tx}P(X=x), & \mbox{ se } X \mbox{ é discreta com função de probabilidade } P(X=x);\\ \int_{\infty}^{\infty}e^{tx}f_X(x)dx & \mbox{ se } X \mbox{ é contínua com função densidade} f_X(x); \end{array} \right. \] a esperança deve ser finita para \(t\) real em algum intervalo \(-h<t<h\) com \(h>0\).
\(M_X(t)\) é denominada de função geratriz de momentos porque todos os momentos de \(X\) podem ser obtidos com o cálculo sucessivo da derivada de \(M_X(t)\), avaliado em \(t=0\).
Teorema: Suponha que a função geradora de momentos de \(X\) exista. Logo, \(E(X^n)\) existe para \(n = 1, 2, \ldots\) e temos: \[E(X^n) = \frac{\partial^n}{\partial t^n}\left.M_X(t)\right|_{t=0}.\]
Exemplo: Se \(X \sim \mbox{Pois}(\lambda)\), encontre sua função geradora de momentos. A partir da função geradora de momentos calcule a média e a variância de \(X\).
Aplicação: Cálculo do somatório no onsolverFGM da Poisson
Cálculos da primeira derivada no R:
Deriv=mosaicCalc::D(exp(lambda*(exp(t)-1))~t)
Deriv2=mosaicCalc::D(exp(lambda*(exp(t)-1))~t+t)
Deriv
## function (t, lambda)
## exp(lambda * (exp(t) - 1)) * (lambda * exp(t))
Deriv2
## function (t, lambda)
## exp(lambda * (exp(t) - 1)) * (lambda * exp(t)) * (lambda * exp(t)) +
## exp(lambda * (exp(t) - 1)) * (lambda * exp(t))
\[ exp(\lambda.(e^t - 1)).(\lambda.e^t).(\lambda.e^t) + exp(\lambda.(e^t - 1)).(\lambda . e^t) \]
Estudo numérico: Atribui-se um vetor numérico de 0 a 100 para os valores da variável de Poisson & e o valor 20 para a taxa da Poisson:
lambda=20
x=seq(0,50,1)
EX=sum(dpois(x,lambda)*x)
EX2=sum(dpois(x,lambda)*x^2)
VAR=EX2-EX^2
paste0("estimativa da esperança = ",EX)
## [1] "estimativa da esperança = 19.9999997508215"
paste0("estimativa da variância = ",VAR)
## [1] "estimativa da variância = 19.9999971042033"
lambda=20
x=seq(0,50,1)
f = function(t) {
sum(dpois(x,lambda)*exp(t*x))
}
t0=0
EX=grad(f, t0)
EX2=hessian(f,t0)
VAR=EX2-EX^2
paste0("estimativa da esperança pela FGM= ",EX)
## [1] "estimativa da esperança pela FGM= 19.9999997508272"
paste0("estimativa da variância pela FGM= ",VAR)
## [1] "estimativa da variância pela FGM= 19.9999962081612"
Resultados:
Distribuição | Poisson |
\(P(X=x)\) | \(\frac{e^{-\lambda}.\lambda^x}{x!}\) |
\(M_x(t)=E\left(e^{tX}\right)\) | \(\exp\left(\lambda(e^t-1)\right)\) |
\(\frac{\partial M_x(t)}{\partial t}\) | \(\exp(\lambda.(e^t - 1)).(\lambda . e^t)\) |
\(\left|\frac{\partial M_x(t)}{\partial t}\right|_{t=0}=E(X)\) | \(\lambda\) |
\(\frac{\partial^2 M_x(t)}{\partial t^2}\) | \(\exp(\lambda.(e^t - 1)).(\lambda.e^t).(\lambda.e^t) + \exp(\lambda.(e^t - 1)).(\lambda . e^t)\) |
\(\left|\frac{\partial^2 M_x(t)}{\partial t^2}\right|_{t=0}=E(X^2)\) | \(\lambda^2+\lambda\) |
\(VAR(X)=E(X^2)-E^2(X)\) | \(\lambda\) |
Teorema: Se \(X\) e \(Y\) são variáveis aleatórias independentes, a função geradora da soma de variáveis aleatórias independentes é igual ao produto das funções geradoras individuais, ou seja \[ \begin{array}{llll} M_{X+Y}(t) &= E\left[e^{t(X+Y)}\right],\\ &= E\left[e^{tX}e^{tY}\right]\\ &= E\left[e^{tX}\right]E\left[e^{tY}\right]\\ &= M_X(t).M_Y(t). \end{array} \]
Teorema: Se duas variáveis aleatórias têm funções geradoras de momentos que existem, e são iguais, então elas têm a mesma função distribuição.
Exemplo: Utilizando a FGM, calcule a distribuição de \(X + Y\) quando \(X\) e \(Y\) são variáveis aleatórias independentes com
Exemplo: Sendo \(Z \sim N(0,1)\) e \(X \sim N(\mu,\sigma^2)\), encontre suas respectivas funções geradoras de momentos.
Exemplo: Função Geradora de Momentos Multidimensional Sejam \(X_1,\ldots,X_n\) variáveis aleatórias definidas num mesmo espaço de probabilidade e \(t_1,\ldots,t_n\) números reais. A função geradora de momentos multidimensional dessas variáveis é definida por \[M_{X_1,\ldots,X_n}(t_1,\ldots,t_n) = E(e^{t_1X_1+\ldots+t_nX_n}) = E(e^{\sum_{i=1}^{n}t_iX_i}),\] desde que a esperança seja finita para os \(t_i\)’s tomados numa vizinhança de zero, \(i=1,\ldots,n\).
Teorema: Função Geradora de Momentos Multidimensional - Variáveis Independentes Sejam \(X_1,\ldots,X_n\) variáveis aleatórias definidas num mesmo espaço de probabilidade com função geradora conjunta \(M_{X_1,\ldots,X_n}(t_1,\ldots,t_n)\), com os \(t_i's\) tomados numa vizinhança de zero. Então as variáveis \(X_1,\ldots,X_n\) são independentes se, e somente se, a função geradora de momentos conjunta pode ser fatorada como o produto das funções geradoras das variáveis. Isto é, \[M_{X_1,\ldots,X_n}(t_1,\ldots,t_n) = \prod_{i=1}^{n}M_{X_i}(t_i).\]
Exemplo: Sejam \(X_1\) e \(X_2\) variáveis independentes com a mesma densidade \(N(0,1)\). Vamos obter a conjunta de \(Y_1=X_1+X_2\) e \(Y_2=X_1-X_2\) e verificar se são independentes:
Exemplo: Sejam \(Z_1, Z_2, \ldots, Z_n\) variáveis aleatórias normais padrão independentes. Utilizando a função geradora de momentos, mostre que \(S_n = Z_1^2+Z_2^2+\ldots+Z_n^2\) segue uma distribuição Qui-Quadrado com \(n\) graus de liberdade.