require(gtools)
require(tidyverse)
require(ggforce)  
options(kableExtra.latex.load_packages = TRUE)
require(kableExtra)
require(mosaicCalc)
require(gridExtra)
require(numDeriv)
require(DT)
#Para numerar tabelas e figuras:
require(captioner)
fig_nums <- captioner(prefix = "Figura")
table_nums <- captioner(prefix = "Tabela")
quadro_nums<- captioner(prefix="Quadro")

1 Função Geradora de Momentos

Definição: A função geradora de momentos da variável \(X\) é definida por

\[ \small M_X(t) =E(e^{tX}) \left\{ \begin{array}{ll} \sum\limits_{x}e^{tx}P(X=x), & \mbox{ se } X \mbox{ é discreta com função de probabilidade } P(X=x);\\ \int\limits_{\infty}^{\infty}e^{tx}f_X(x)dx & \mbox{ se } X \mbox{ é contínua com função densidade} f_X(x); \end{array} \right. \] a esperança deve ser finita para \(t\) real em algum intervalo \(-h<t<h\) com \(h>0\).

\(M_X(t)\) é denominada de função geratriz de momentos porque todos os momentos de \(X\) podem ser obtidos com o cálculo sucessivo da derivada de \(M_X(t)\), avaliado em \(t=0\).

Teorema: Suponha que a função geradora de momentos de \(X\) exista. Logo, \(E(X^n)\) existe para \(n = 1, 2, \ldots\) e temos: \[\small E(X^n) = \frac{\partial^n}{\partial t^n}\left.M_X(t)\right|_{t=0}.\]

Exemplo 1: Se \(X \sim \mbox{Pois}(\lambda)\), encontre sua função geradora de momentos. A partir da função geradora de momentos calcule a média e a variância de \(X\).

Solução: Cálculo do somatório no onsolver

Figura  1: FGM da Poisson no onsolver

Figura 1: FGM da Poisson no onsolver

\[ \small \small \begin{array}{|lll|} \hline M_X(t)=E(e^{tX})\\ =\sum\limits_{x=1}^\infty\frac{\exp(t.x)\lambda^x \exp(-\lambda)}{x!}\\ =\underbrace{\sum\limits_{x=1}^\infty \frac{(e^t.\lambda)^x \exp(-\lambda)}{x!}}_{\mbox{e ajustando para a nova taxa ser }e^t.\lambda}\\ =\frac{\exp(e^t\lambda)}{\exp(-\lambda)}\underbrace{\sum\limits_{x=1}^\infty \frac{(e^t.\lambda)^x \exp(-e^t\lambda)}{x!}}_{ \mbox{somatório de Poisson}(e^t\lambda) \mbox{é igual a 1}}\\ =\exp[\lambda(e^t-1)], \mbox{e bate com onsolver}\\ \hline \end{array} \] Cálculos da primeira derivada no R:
Deriv=mosaicCalc::D(exp(lambda*(exp(t)-1))~t)
Deriv2=mosaicCalc::D(exp(lambda*(exp(t)-1))~t+t)
Deriv
## function (t, lambda) 
## {
##     .e1 <- exp(t)
##     lambda * exp(lambda * (.e1 - 1)) * .e1
## }
Deriv2
## function (t, lambda) 
## {
##     .e1 <- exp(t)
##     lambda * (1 + lambda * .e1) * exp(lambda * (.e1 - 1)) * .e1
## }

Sendo assim, aplicamos as derivadas acima no ponto t=0 para encontrar os momentos e calcular a média e a variância. Os resultados estão na tabela abaixo:

\[ \small \begin{array}{|ll|l|} \hline &\mbox{Distribuição} & \mbox{Poisson}\\ \hline &P(X=x) & \frac{e^{-\lambda}.\lambda^x}{x!}\\ \hline &M_x(t)=E\left(e^{tX}\right) & \exp\left(\lambda(e^t-1)\right)\\ \hline &\frac{\partial M_x(t)}{\partial t} & \exp(\lambda.(e^t - 1)).(\lambda . e^t))\\ \hline &E(X)=\left|\frac{\partial M_x(t)}{\partial t}\right|_{t=0}& \lambda\\ \hline &\frac{\partial^2 M_x(t)}{\partial t^2} & \exp(\lambda.(e^t - 1)).(\lambda.e^t).(\lambda.e^t) + \exp(\lambda.(e^t - 1)).(\lambda . e^t)\\ \hline &\left|\frac{\partial^2 M_x(t)}{\partial t^2}\right|_{t=0}=E(X^2) & \lambda^2+\lambda\\ \hline &VAR(X)=E(X^2)-E^2(X)& \lambda \\ \hline \end{array} \]

Estudo numérico: Atribui-se um vetor numérico de 0 a 100 para os valores da variável de Poisson & e o valor 20 para a taxa da Poisson:

  • As estimativas da esperança e variância são próximas do valor estipulado para \(\lambda\):
lambda=20
x=seq(0,50,1)
EX=sum(dpois(x,lambda)*x)
EX2=sum(dpois(x,lambda)*x^2)
VAR=EX2-EX^2
paste0("estimativa da esperança = ",EX)
## [1] "estimativa da esperança = 19.9999997508215"
paste0("estimativa da variância = ",VAR)
## [1] "estimativa da variância = 19.9999971042032"
  • Pela FGM: podemos efetuar a derivada numericamente, com as funções grad e hessian do pacote numDeriv Saiba mais sobre .
  • Os resultados são satisfatórios!
lambda=20
x=seq(0,50,1)
f = function(t) {
    sum(dpois(x,lambda)*exp(t*x))
}
t0=0
EX=grad(f, t0) 
EX2=hessian(f,t0)
VAR=EX2-EX^2
paste0("estimativa da esperança pela FGM= ",EX)
## [1] "estimativa da esperança pela FGM= 19.9999997508208"
paste0("estimativa da variância pela FGM= ",VAR)
## [1] "estimativa da variância pela FGM= 19.999997235008"

Teorema: Se \(X\) e \(Y\) são variáveis aleatórias independentes, a função geradora da soma de variáveis aleatórias independentes é igual ao produto das funções geradoras individuais, ou seja \[\small \begin{array}{llll} M_{X+Y}(t) &= E\left[e^{t(X+Y)}\right],\\ &= E\left[e^{tX}e^{tY}\right]\\ &= E\left[e^{tX}\right]E\left[e^{tY}\right]\\ &= M_X(t).M_Y(t). \end{array} \]

Teorema: Se duas variáveis aleatórias têm funções geradoras de momentos que existem, e são iguais, então elas têm a mesma função distribuição.

Exemplo 2: Sendo \(Z \sim N(0,1)\) e \(X \sim N(\mu,\sigma^2)\), encontre suas respectivas funções geradoras de momentos.

Solução: Para \(Z \sim N(0,1)\) veja o cálculo da integral definida no onsolver

Figura  2: FGM da Normal padrão no onsolver

Figura 2: FGM da Normal padrão no onsolver

\[ \small \begin{array}{|lll|} \hline M_Z(t)=E(e^{tZ})\\ =\int\limits_{-\infty}^\infty e^{tz} \frac{1}{\sqrt{2.\pi}}.\exp\left[-\frac{1}{2}z^2\right]dz\\ =\int\limits_{-\infty}^\infty \frac{1}{\sqrt{2.\pi}}.\exp\left[-\frac{1}{2}z^2+\frac{2.t.z}{2}\right]dz\\ \mbox{e completando termos para }\\ \mbox{formar uma expressão ao quadrado:}\\ =\exp\left[\frac{t^2}{2} \right]\int\limits_{-\infty}^\infty \frac{1}{\sqrt{2.\pi}} \exp\left[-\frac{1}{2}z^2+\frac{2.tz}{2}-\frac{t^2}{2}\right]dz\\ =\exp\left[\frac{t^2}{2} \right]\int\limits_{-\infty}^\infty \frac{1}{\sqrt{2.\pi}} \exp\left[-\frac{1}{2}(z^2-2.tz+t^2)\right]dz\\ =\exp\left[\frac{t^2}{2} \right] \underbrace{\int\limits_{-\infty}^\infty \frac{1}{\sqrt{2.\pi}} \exp\left[-\frac{1}{2}(z-t)^2\right]dz}_{\mbox{integral da N(t,1) é igual a 1}}\\ =\exp\left[\frac{t^2}{2} \right] \mbox{, e confere com o onsolver!}\\ \hline \end{array} \begin{array}{|lll|} \hline M_X(t)=E(e^{t.X})\\ =E(e^{t.\{Z.\sigma+\mu\}})\\ =E(e^{t.Z.\sigma}.e^{t.\mu})\\ =\underbrace{E(e^{t.Z.\sigma})}_{\mbox{FGM da N(0,1)}}.\underbrace{E(e^{t.\mu})}_{\mbox{ constante}}\\ =M_Z(t.\sigma).e^{t\mu}\\ =\exp\left[\frac{t^2\sigma^2}{2}\right].e^{t\mu}\\ =\exp\left[\frac{t^2\sigma^2}{2}+\mu.t\right]\\ \hline \end{array} \]

Exemplo 3: Utilizando a FGM, calcule a distribuição de \(X + Y\) quando \(X\) e \(Y\) são variáveis aleatórias independentes com

    1. distribuição de Poisson com parâmetros \(\lambda_1\) e \(\lambda_2\), respectivamente;
    1. distribuição Normal com parâmetros \((\mu_1,\sigma_1^2)\) e \((\mu_2,\sigma_2^2)\), respectivamente;

Solução: \[ \begin{array}{|ll|} \hline a) M_{X+Y}(t)&=M_X(t).M_Y(t)\\ &=\exp[\lambda_1(e^t-1)].\exp[\lambda_2(e^t-1)]\\ &=\exp[(\lambda_1+\lambda_2).(e^t-1)]\\ &\therefore X+Y \sim \mbox{Poisson}(\lambda_1+\lambda_2), \\ &\mbox{ ou seja, somam-se as taxas da Poisson}\\ \hline \end{array}\\ \begin{array}{|ll|} \hline b) M_{X+Y}(t)&=M_X(t).M_Y(t)\\ &=\exp\left[\frac{t^2\sigma_1^2}{2}+\mu_1.t\right].\exp\left[\frac{t^2\sigma_2^2}{2}+\mu_2.t\right]\\ &=\exp\left[\frac{t^2(\sigma_1^2+\sigma_2^2)}{2}+(\mu_1+\mu_2).t\right]\\ &\therefore X+Y \sim \mbox{Normal}(\mu_1+\mu_2,\sigma_1^2+\sigma_2^2), \\ &\mbox{ou seja, somam-se as médias & variâncias da Normal}\\ \hline \end{array} \]

Definição: Função Geradora de Momentos Multidimensional Sejam \(X_1,\ldots,X_n\) variáveis aleatórias definidas num mesmo espaço de probabilidade e \(t_1,\ldots,t_n\) números reais. A função geradora de momentos multidimensional dessas variáveis é definida por \[\small M_{X_1,\ldots,X_n}(t_1,\ldots,t_n) = E(e^{t_1X_1+\ldots+t_nX_n}) = E(e^{\sum\limits_{i=1}^{n}t_iX_i}),\] desde que a esperança seja finita para os \(t_i\)’s tomados numa vizinhança de zero, \(i=1,\ldots,n\).

Teorema: Função Geradora de Momentos Multidimensional - Variáveis Independentes Sejam \(X_1,\ldots,X_n\) variáveis aleatórias definidas num mesmo espaço de probabilidade com função geradora conjunta \(M_{X_1,\ldots,X_n}(t_1,\ldots,t_n)\), com os \(t_i's\) tomados numa vizinhança de zero. Então as variáveis \(X_1,\ldots,X_n\) são independentes se, e somente se, a função geradora de momentos conjunta pode ser fatorada como o produto das funções geradoras das variáveis. Isto é, \[\small M_{X_1,\ldots,X_n}(t_1,\ldots,t_n) = \prod_{i=1}^{n}M_{X_i}(t_i).\]

Exemplo 4: Sejam \(X\) e \(Y\) variáveis independentes com a mesma densidade \(N(0,1)\). Vamos obter a conjunta de \(Z=X+Y\) e \(W=X-Y\) e verificar se são independentes:

    1. Utilizando o método da função geradora de momentos;
    1. Utilizando o método do jacobiano (o aluno deve dirigir-se a Aula 7 deste curso.

\[ \small \begin{array}{|ll|} \hline M_Z(t)&=M_{X+Y}(t)\\ &=M_X(t).M_Y(t)\\ &=e^{\left[\frac{t^2}{2}\right]}.e^{\left[\frac{t^2}{2}\right]}\\ &=e^{2.\frac{t^2}{2}}\\ &\therefore X+Y \sim \mbox{Normal}(0,2)\\ &\mbox{somam-se as médias e variâncias}\\ \hline \end{array}\\ \begin{array}{|ll|} \hline M_W(t)&=M_{X-Y}(t)\\ &=E(e^{[X-Y]t})\\ &=\underbrace{E\left(e^{X.t}\right)}_{M_X(t)}.\underbrace{E\left(e^{-Y.t}\right)}_{M_Y(-t)}\\ &=e^{\left[\frac{t^2}{2}\right]}.e^{\left[\frac{(-t)^2}{2}\right]}\\ &=e^{2.\frac{t^2}{2}}\\ &\therefore X-Y \sim \mbox{Normal}(0,2)\\ &\mbox{subtraem-se as médias e somam-se as variâncias}\\ \hline \end{array} \]

Exemplo 5: Sejam \(Z_1, Z_2, \ldots, Z_n\) variáveis aleatórias normais padrão independentes. Utilizando a função geradora de momentos, mostre que \(S_n = Z_1^2+Z_2^2+\ldots+Z_n^2\) segue uma distribuição Qui-Quadrado com \(n\) graus de liberdade.

\[ \small \begin{array}{lll} \begin{array}{|lll|} \hline \mbox{1º passo:} & \mbox{encontrar a F.G.M. de cada um dos termos quadráticos: } Z_1^2,Z_2^2,\ldots,Z_n^2:\\ M_{Z_1^2}(t)&=? \mbox{ não há uma fórmula para o quadrado de variável aleatória!}\\ &\therefore \mbox{ é necessário encontrar pela fórmula da F.G.M.:}\\ M_{Z_1^2}(t)&=E(e^{Z_1^2.t})\\ &=\int\limits_{-\infty}^\infty e^{tz^2} \frac{1}{\sqrt{2.\pi}}.\exp\left[-\frac{1}{2}z^2\right]dz\\ &=\int\limits_{-\infty}^\infty \frac{1}{\sqrt{2.\pi}}.\exp\left[-\frac{1}{2}z^2+\frac{2.t.z^2}{2}\right]dz\\ &=\int\limits_{-\infty}^\infty \frac{1}{\sqrt{2.\pi}}.\exp\left[-\frac{1}{2}\left(z^2-2.t.z^2\right)\right]dz\\ &=\int\limits_{-\infty}^\infty \frac{1}{\sqrt{2.\pi}}.\exp\left[-\frac{1}{2}.z^2\left(1-2.t\right)\right]dz\\ &=\sqrt{\frac{2}{1-2t}}\underbrace{\int\limits_{-\infty}^\infty \frac{1}{\sqrt{2.\pi}.\sqrt{\frac{2}{1-2t}}}.\exp\left[-\frac{1}{\frac{2}{1-2t}}.z^2\right]dz}_{\mbox{integral da } N\left(0,\frac{2}{1-2t}\right)\mbox{ é igual a 1}}, \mbox{ sendo }t<\frac{1}{2}\\ &\therefore \mbox{cada um dos } Z_1^2,Z_2^2,\ldots,Z_n^2 \mbox{ tem distribuição}\\ &\mbox{Quiquadrado com 1 grau de liberdade (Apêndice Mood)}, \\ \hline \end{array}\\ \begin{array}{|lll|} \hline \mbox{2º passo:} & \mbox{encontrar a F.G.M. da soma: } \\ M_{S_n}(t)&=M_{Z_1^2+Z_2^2+\ldots+Z_n^2}(t)\\ &=M_{Z_1^2}(t).M_{Z_2^2}(t).\ldots.M_{Z_n^2}(t)\\ &=\underbrace{\sqrt{\frac{2}{1-2t}}.\sqrt{\frac{2}{1-2t}}\ldots\sqrt{\frac{2}{1-2t}}}_{\mbox{n vezes}}\\ &=\left(\frac{2}{1-2t}\right)^{\frac{n}{2}},\mbox{ sendo }t<\frac{1}{2}\\ &\therefore S_n \sim \mbox{Quiquadrado com n graus de liberdade (Apêndice Mood)}\\ \hline \end{array} \end{array} \] Gráfico:

z = seq(-4,4,0.1)
z2 = seq(0,20,0.1)
f_z=dnorm(z)
f_z2=dchisq(z2,1)
f_soma=dchisq(z2,2)

a=ggplot(data.frame(z,f_z), aes( x=z, y=f_z)) +
geom_line(size=1.2,color="orange")+
labs("Z",y="f(Z)",title="Z1 ~ N(0,1) & Z2 ~ N(0,1)")

b=ggplot(data.frame(z2,f_z2), aes( x=z2, y=f_z2)) +
geom_line(size=1.2,color="orange")+
  xlim(0,12)+
labs(x="z",y="f(z)",title="Z1^2 ~ Chisq(1) & Z2^2 ~ Chisq(1)")

c=ggplot(data.frame(z2,f_soma), aes( x=z2, y=f_soma)) +
geom_line(size=1.2,color="orange")+
    xlim(0,12)+
labs(x="s",y="f(s)",title="Z1^2+Z2^2 ~ Chisq(2)")

grid.arrange(a, b,c,ncol = 2, nrow = 2)
Figura 3: Gráficos do exemplo 5
Figura 3: Gráficos do exemplo 5

Estudo de simulação: Foram gerados 2 vetores de tamanhos iguais a 1000, provenientes da distribuição normal padrão, e foram calculadas as somas dos quadrados dos valores gerados, conforme vemos na tabela abaixo, e verificamos que os histogramas e as curva de densidade aproximam-se das distribuições teóricas.

set.seed(04122020)
N=1000
n=2
Z=matrix(ncol=n,nrow=N)
i=1
while(i<=n){
Z[,i]=rnorm(N)
i=i+1
}
Z2=Z^2
Soma=rowSums(Z2)
data=data.frame(Z,Z2,Soma)
colnames(data)=c("z1","z2","z1^2","z2^2","soma")
data %>% 
  head()%>%
  datatable(cap=quadro_nums("quadro1","Visualização dos vetores Z, Z2, e soma (somente as 6 primeiras observações)"),
options = list(columnDefs=list(list(class="dt-center",targets=list(1:4)),
                                    list(width = '20%', targets = list(1:3)))))
a=data %>% 
ggplot(aes( x=z1)) +
 geom_histogram(aes(y=..density..), colour="black", fill="gray")+
  geom_density(size=1.2,color="green") +
labs(x="z",y="f(z)",title="Histograma de Z1")

b=data %>% 
ggplot(aes( x=z2)) +
 geom_histogram(aes(y=..density..), colour="black", fill="gray")+
  geom_density(size=1.2,color="green") +
labs(x="z",y="f(z)",title="Histograma de Z2")

c=data %>% 
ggplot(aes( x=z1^2)) +
  geom_histogram(aes(y=..density..), colour="gray", fill="gray")+
   geom_histogram(aes(y=..density..), colour="black", fill="gray")+
  geom_density(size=1.2,color="green") +
labs(x="z",y="f(z)",title="Histograma de Z1^2")

d=data %>% 
ggplot(aes( x=z2^2)) +
  geom_histogram(aes(y=..density..), colour="gray", fill="gray")+
   geom_histogram(aes(y=..density..), colour="black", fill="gray")+
  geom_density(size=1.2,color="green") +
labs(x="z",y="f(z)",title="Histograma de Z2^2")

e=data %>% 
ggplot(aes( x=soma)) +
  geom_histogram(aes(y=..density..), colour="gray", fill="gray")+
   geom_histogram(aes(y=..density..), colour="black", fill="gray")+
  geom_density(size=1.2,color="green") +
labs(x="s",y="f(s)",title="Histograma da Soma")

grid.arrange(a, b,c,d,e, ncol = 2, nrow = 3)
Figura  4: Gráficos do Exemplo 5 - estudo de simulação

Figura 4: Gráficos do Exemplo 5 - estudo de simulação