#install.packages("gtools")
#install.packages("ggforce")  
#install.packages("mosaicCalc")
require(gtools)
require(tidyverse)
require(ggforce)  
options(kableExtra.latex.load_packages = TRUE)
require(kableExtra)
require(mosaicCalc)
require(gridExtra)
require(numDeriv)

1 Função Geradora de Momentos

Definição: A função geradora de momentos da variável \(X\) é definida por

\[ M_X(t) =E(e^{tX}) \left\{ \begin{array}{ll} \sum_{x}e^{tx}P(X=x), & \mbox{ se } X \mbox{ é discreta com função de probabilidade } P(X=x);\\ \int_{\infty}^{\infty}e^{tx}f_X(x)dx & \mbox{ se } X \mbox{ é contínua com função densidade} f_X(x); \end{array} \right. \] a esperança deve ser finita para \(t\) real em algum intervalo \(-h<t<h\) com \(h>0\).

\(M_X(t)\) é denominada de função geratriz de momentos porque todos os momentos de \(X\) podem ser obtidos com o cálculo sucessivo da derivada de \(M_X(t)\), avaliado em \(t=0\).

Teorema: Suponha que a função geradora de momentos de \(X\) exista. Logo, \(E(X^n)\) existe para \(n = 1, 2, \ldots\) e temos: \[E(X^n) = \frac{\partial^n}{\partial t^n}\left.M_X(t)\right|_{t=0}.\]

Exemplo: Se \(X \sim \mbox{Pois}(\lambda)\), encontre sua função geradora de momentos. A partir da função geradora de momentos calcule a média e a variância de \(X\).

Aplicação: Cálculo do somatório no onsolver
FGM da Poisson

FGM da Poisson

Cálculos da primeira derivada no R:

Deriv=mosaicCalc::D(exp(lambda*(exp(t)-1))~t)
Deriv2=mosaicCalc::D(exp(lambda*(exp(t)-1))~t+t)
Deriv
## function (t, lambda) 
## exp(lambda * (exp(t) - 1)) * (lambda * exp(t))
Deriv2
## function (t, lambda) 
## exp(lambda * (exp(t) - 1)) * (lambda * exp(t)) * (lambda * exp(t)) + 
##     exp(lambda * (exp(t) - 1)) * (lambda * exp(t))

\[ exp(\lambda.(e^t - 1)).(\lambda.e^t).(\lambda.e^t) + exp(\lambda.(e^t - 1)).(\lambda . e^t) \]

Estudo numérico: Atribui-se um vetor numérico de 0 a 100 para os valores da variável de Poisson & e o valor 20 para a taxa da Poisson:

  • As estimativas da esperança e variância são próximas do valor estipulado para \(\lambda\):
lambda=20
x=seq(0,50,1)
EX=sum(dpois(x,lambda)*x)
EX2=sum(dpois(x,lambda)*x^2)
VAR=EX2-EX^2
paste0("estimativa da esperança = ",EX)
## [1] "estimativa da esperança = 19.9999997508215"
paste0("estimativa da variância = ",VAR)
## [1] "estimativa da variância = 19.9999971042033"
  • Pela FGM: podemos efetuar a derivada numericamente, com as funções grad e hessian do pacote numDeriv Saiba mais sobre .
  • Os resultados são satisfatórios!
lambda=20
x=seq(0,50,1)
f = function(t) {
    sum(dpois(x,lambda)*exp(t*x))
}
t0=0
EX=grad(f, t0) 
EX2=hessian(f,t0)
VAR=EX2-EX^2
paste0("estimativa da esperança pela FGM= ",EX)
## [1] "estimativa da esperança pela FGM= 19.9999997508272"
paste0("estimativa da variância pela FGM= ",VAR)
## [1] "estimativa da variância pela FGM= 19.9999962081612"
Resultados:
FGM
Distribuição Poisson
\(P(X=x)\) \(\frac{e^{-\lambda}.\lambda^x}{x!}\)
\(M_x(t)=E\left(e^{tX}\right)\) \(\exp\left(\lambda(e^t-1)\right)\)
\(\frac{\partial M_x(t)}{\partial t}\) \(\exp(\lambda.(e^t - 1)).(\lambda . e^t)\)
\(\left|\frac{\partial M_x(t)}{\partial t}\right|_{t=0}=E(X)\) \(\lambda\)
\(\frac{\partial^2 M_x(t)}{\partial t^2}\) \(\exp(\lambda.(e^t - 1)).(\lambda.e^t).(\lambda.e^t) + \exp(\lambda.(e^t - 1)).(\lambda . e^t)\)
\(\left|\frac{\partial^2 M_x(t)}{\partial t^2}\right|_{t=0}=E(X^2)\) \(\lambda^2+\lambda\)
\(VAR(X)=E(X^2)-E^2(X)\) \(\lambda\)

Teorema: Se \(X\) e \(Y\) são variáveis aleatórias independentes, a função geradora da soma de variáveis aleatórias independentes é igual ao produto das funções geradoras individuais, ou seja \[ \begin{array}{llll} M_{X+Y}(t) &= E\left[e^{t(X+Y)}\right],\\ &= E\left[e^{tX}e^{tY}\right]\\ &= E\left[e^{tX}\right]E\left[e^{tY}\right]\\ &= M_X(t).M_Y(t). \end{array} \]

Teorema: Se duas variáveis aleatórias têm funções geradoras de momentos que existem, e são iguais, então elas têm a mesma função distribuição.

Exemplo: Utilizando a FGM, calcule a distribuição de \(X + Y\) quando \(X\) e \(Y\) são variáveis aleatórias independentes com

  • distribuição de Poisson com parâmetros \(\lambda_1\) e \(\lambda_2\), respectivamente;
  • distribuição Normal com parâmetros \((\mu_1,\sigma_1^2)\) e \((\mu_2,\sigma_2^2)\), respectivamente;

Exemplo: Sendo \(Z \sim N(0,1)\) e \(X \sim N(\mu,\sigma^2)\), encontre suas respectivas funções geradoras de momentos.

Exemplo: Função Geradora de Momentos Multidimensional Sejam \(X_1,\ldots,X_n\) variáveis aleatórias definidas num mesmo espaço de probabilidade e \(t_1,\ldots,t_n\) números reais. A função geradora de momentos multidimensional dessas variáveis é definida por \[M_{X_1,\ldots,X_n}(t_1,\ldots,t_n) = E(e^{t_1X_1+\ldots+t_nX_n}) = E(e^{\sum_{i=1}^{n}t_iX_i}),\] desde que a esperança seja finita para os \(t_i\)’s tomados numa vizinhança de zero, \(i=1,\ldots,n\).

Teorema: Função Geradora de Momentos Multidimensional - Variáveis Independentes Sejam \(X_1,\ldots,X_n\) variáveis aleatórias definidas num mesmo espaço de probabilidade com função geradora conjunta \(M_{X_1,\ldots,X_n}(t_1,\ldots,t_n)\), com os \(t_i's\) tomados numa vizinhança de zero. Então as variáveis \(X_1,\ldots,X_n\) são independentes se, e somente se, a função geradora de momentos conjunta pode ser fatorada como o produto das funções geradoras das variáveis. Isto é, \[M_{X_1,\ldots,X_n}(t_1,\ldots,t_n) = \prod_{i=1}^{n}M_{X_i}(t_i).\]

Exemplo: Sejam \(X_1\) e \(X_2\) variáveis independentes com a mesma densidade \(N(0,1)\). Vamos obter a conjunta de \(Y_1=X_1+X_2\) e \(Y_2=X_1-X_2\) e verificar se são independentes:

    1. Utilizando o método da função geradora de momentos;
    1. Utilizando o método do jacobiano.

Exemplo: Sejam \(Z_1, Z_2, \ldots, Z_n\) variáveis aleatórias normais padrão independentes. Utilizando a função geradora de momentos, mostre que \(S_n = Z_1^2+Z_2^2+\ldots+Z_n^2\) segue uma distribuição Qui-Quadrado com \(n\) graus de liberdade.