1 .Exercícios de simulação

Instruções:

Simule uma amostra de \(\scriptsize Y = (Y_1,...,Y_n)\) do modelo descrito em cada exercício considerando \(\scriptsize n = 1000\). Depois de gerada a amostra, suponha que os parâmetros deste modelo são desconhecidos e utilize a inferência bayesiana para estimá-los.

Considere o seguinte modelo para explicar uma determinada característica (\(\scriptsize Y\)) da população:

\[\scriptsize Y\sim N(\beta_0+\beta_1X,\phi^-1)\]

Considere \(\scriptsize X\) uma covariável do seu modelo e gere esta de uma distribuição normal. Os parâmetros deste modelo são \(\scriptsize \theta=(\beta_0,\beta_1,\phi^-1)\). Assuma a seguinte crença que supõe independência a priori:

\[\scriptsize \beta_i\sim N(a_i, b_i),i= 0,1\] e \[\scriptsize \phi\sim Gama(c,d)\].

Para obtenção da amostra da distribuição a posteriori por meio de técnica de MCMC, utilize dois algoritmos distintos: o amostador de Gibbs e o amostador de Gibbs com um passo de Metropolis-Hastings(para o parâmetro \(\scriptsize \phi\)).

\(\scriptsize Y\sim N(\beta_0 +\beta_1X,\phi{^-1})\) onde \(\scriptsize \theta=(\beta_0 + \beta_1 + \phi^{-1})\)

Supondo independência, temos :

\(\scriptsize p(\theta) = p(\beta_0)* p(\beta_1)* p(\phi^{-1})\)

onde:

\(\scriptsize \beta_0\sim N(a_0, b_0)\)

\(\scriptsize \beta_1\sim N(a_1, b_1)\)

\(\scriptsize \phi^-1 \sim Gama(c,d)\)

1.3 Contas

1.3.1 Distribuição a posteriori

\[\scriptsize p(\theta|Y) \propto p(Y|\theta) p(\theta)\]

\[\tiny p(\theta|Y) \propto (2\pi\phi^{-1})^{-n/2} exp\Bigg\{ -\frac{1}{2\phi^{-1}}\sum^n_{i=1}\Bigg [Y_i - (\beta_0 + \beta_1X_i))^2\Bigg]\Bigg\}(2\pi b_0)^{-1/2}exp\Bigg\{-\frac{1}{2b_0} (\beta_0 -a_0)^2\Bigg\}(2\pi b_1)^{-1/2}exp\Bigg\{-\frac{1}{2b_1} (\beta_1 -a_1)^2\Bigg\}\phi^{c-1}exp\Bigg\{-d\phi\Bigg\}\]

Núcleo da distribuicao a posteriori:

\[\scriptsize p(\theta|Y) \propto (\phi^{-1})^{-n/2} exp\Bigg\{-\frac{1}{2\phi^{-1}} \sum^n_{i=1}\Bigg [Y_i - (\beta_0 + \beta_1X_i))^2\Bigg]\Bigg\} exp\Bigg\{-\frac{1}{2b_0} (\beta_0 -a_0)^2\Bigg\}exp\Bigg\{-\frac{1}{2b_1} (\beta_1 -a_1)^2\Bigg\}\phi^{c-1} exp\Bigg\{-d\phi\Bigg\}\]

1.3.2 Distribuição condicional completa para \(\beta_0\):

\[\scriptsize p(\beta_0|.) \propto exp\Bigg\{-\frac{1}{2\phi^{-1}} \sum^n_{i=1}\Bigg [Y_i - (\beta_0 + \beta_1X_i))^2\Bigg]\Bigg\} exp\Bigg\{-\frac{1}{2b_0} (\beta_0 -a_0)^2\Bigg\}\] \[\scriptsize p(\beta_0|.) \propto exp\Bigg\{-\frac{1}{2\phi^{-1}} \sum^n_{i=1}\Bigg [Y_i^2 - 2Y_i (\beta_0 + \beta_1X_i))+ (\beta_0 + \beta_1X_i)^2\Bigg]\Bigg\} exp\Bigg\{-\frac{1}{2b_0} (\beta_0^2 -2\beta_0a_0 + a_0^2)\Bigg\}\] \[\scriptsize p(\beta_0|.) \propto exp\Bigg\{-\frac{1}{2\phi^{-1}}\Bigg[\sum^n_{i=1}Y_i^2 - 2\beta_0\sum^n_{i=1}Y_i - 2\beta_1\sum^n_{i=1}Y_iX_i+ n\beta_0^2 + 2\beta_0\beta_1\sum^n_{i=1}X_i+ \beta_1^2\sum^n_{i=1}X_i^2)\Bigg]\Bigg\} exp\Bigg\{-\frac{1}{2b_0} (\beta_0^2 -2\beta_0a_0)\Bigg\}\] \[\scriptsize p(\beta_0|.)\propto exp\Bigg\{-\frac{1}{2}\Bigg[-2\beta_0\Bigg(\frac{\sum^n_{i=1}Y_i-\beta_1\sum^n_{i=1}X_i}{\phi^{-1}}+\frac{a_0}{b_0}\Bigg)+ \beta_0^2\Bigg(\frac{n}{\phi^{-1}}+\frac{1}{b_0}\Bigg)\Bigg]\Bigg\}\]

\[\scriptsize p(\beta_0|.)\propto exp\Bigg\{-\frac{1}{2}\Bigg[\Bigg(\frac{b_0n +\phi{^-1}}{\phi^{-1}b_0}\Bigg)\Bigg[\beta_o^2-2\beta_0\Bigg(\frac{b_0(\sum^n_{i=1}Y_i-\beta_1\sum^n_{i=1}Xi)+a_0\phi^{-1}}{\phi^{-1}b_0} \Bigg)\Bigg(\frac{b_0n +\phi{^-1}}{\phi^{-1}b_0}\Bigg)^{-1} \Bigg] \Bigg]\Bigg\}\] \[\scriptsize p(\beta_0|.)\propto exp\Bigg\{-\frac{1}{2}\Bigg[\Bigg(\frac{b_0n +\phi{^-1}}{\phi^{-1}b_0}\Bigg)\Bigg[\beta_o^2-2\beta_0\Bigg(\frac{b_0(\sum^n_{i=1}Y_i-\beta_1\sum^n_{i=1}Xi)+a_0\phi^{-1}}{b_0n +\phi{^-1}}\Bigg)\Bigg] \Bigg]\Bigg\}\]

\[\scriptsize \implies\beta_0|.\sim N \Bigg(\Bigg(\frac{b_0(\sum^n_{i=1}Y_i+\beta_1\sum^n_{i=1}Xi)+a_0\phi^{-1}}{\phi^{-1}+ nb_0} \Bigg),\Bigg( \frac{\phi^{-1}b_0}{b_0n+\phi^{-1}}\Bigg)\Bigg)\]

1.3.3 Distribuição condicional completa para \(\beta_1\):

\[\scriptsize p(\beta_1|.) \propto exp\Bigg\{-\frac{1}{2\phi^{-1}} \sum^n_{i=1}\Bigg [Y_i - (\beta_0 + \beta_1X_i))^2\Bigg]\Bigg\} exp\Bigg\{-\frac{1}{2b_1} (\beta_1 -a_1)^2\Bigg\}\] \[\scriptsize p(\beta_1|.) \propto exp\Bigg\{-\frac{1}{2\phi^{-1}} \sum^n_{i=1}\Bigg [Y_i^2 - 2Y_i (\beta_0 + \beta_1X_i))+ (\beta_0 + \beta_1X_i)^2\Bigg]\Bigg\} exp\Bigg\{-\frac{1}{2b_1} (\beta_1^2 -2\beta_1a_1 + a_1^2)\Bigg\}\] \[\scriptsize p(\beta_1|.) \propto exp\Bigg\{-\frac{1}{2\phi^{-1}}\Bigg[\sum^n_{i=1}Y_i^2 - 2\beta_0\sum^n_{i=1}Y_i - 2\beta_1\sum^n_{i=1}Y_iX_i + \beta_0^2 + 2\beta_0\beta_1\sum^n_{i=1}X_i+ \beta_1^2\sum^n_{i=1}X_i^2)\Bigg]\Bigg\} exp\Bigg\{-\frac{1}{2b_1} (\beta_1^2 -2\beta_1a_1)\Bigg\}\] \[\scriptsize p(\beta_1|.)\propto exp\Bigg\{-\frac{1}{2}\Bigg[-2\beta_1\Bigg(\frac{\sum^n_{i=1}Y_iX_i-\beta_0\sum^n_{i=1}X_i}{\phi^{-1}}+\frac{a_1}{b_1}\Bigg)+ \beta_1^2\Bigg(\frac{\sum^n_{i=1}X_i^2}{\phi^{-1}}+\frac{1}{b_1}\Bigg)\Bigg]\Bigg\}\] \[\scriptsize p(\beta_1|.)\propto exp\Bigg\{-\frac{1}{2}\Bigg[-2\beta_1\Bigg(\frac{b_1(\sum^n_{i=1}Y_iX_i-\beta_0\sum^n_{i=1}X_i)+ a_1\phi^{-1}}{\phi^{-1}b_1}\Bigg)+ \beta_1^2\Bigg(\frac{b_1\sum^n_{i=1}X_i^2+ \phi^{-1}}{\phi^{-1}b_1}\Bigg)\Bigg]\Bigg\}\]

\[\scriptsize p(\beta_1|.)\propto exp\Bigg\{-\frac{1}{2}\Bigg[\Bigg(\frac{b_1\sum^n_{i=1}X_i^2 +\phi{^-1}}{\phi^{-1}b_1}\Bigg)\Bigg[\beta_1^2-2\beta_1\Bigg(\frac{b_1(\sum^n_{i=1}Y_iXi-\beta_0\sum^n_{i=1}X_i)+a_1\phi^{-1}}{\phi^{-1}b_1} \Bigg)\Bigg(\frac{b_1\sum^n_{i=1}X_i^2 +\phi{^-1}}{\phi^{-1}b_1}\Bigg)^{-1} \Bigg] \Bigg]\Bigg\}\] \[\scriptsize p(\beta_1|.)\propto exp\Bigg\{-\frac{1}{2}\Bigg[\Bigg(\frac{b_1\sum^n_{i=1}X_i^2 +\phi{^-1}}{\phi^{-1}b_1}\Bigg)\Bigg[\beta_1^2-2\beta_1\Bigg(\frac{b_1(\sum^n_{i=1}Y_iXi-\beta_0\sum^n_{i=1}X_i)+a_1\phi^{-1}}{b_1\sum^n_{i=1}X_i^2 +\phi{^-1}}\Bigg)\Bigg] \Bigg]\Bigg\}\]

\[\scriptsize \implies\beta_1|.\sim N \Bigg(\Bigg(\frac{b_1(\sum^n_{i=1}Y_iXi-\beta_0\sum^n_{i=1}X_i)+a_1\phi^{-1}}{b_1\sum^n_{i=1}X_i^2 +\phi{^-1}} \Bigg),\Bigg( \frac{\phi^{-1}b_1}{b_1\sum^n_{i=1}X_i^2 +\phi{^-1}}\Bigg)\Bigg)\]

1.3.4 Distribuição condicional completa para \(\phi\):

\[\scriptsize p(\phi|.)\propto(\phi^{-1})^{-n/2}exp\Bigg\{-\frac{1}{2\phi^{-1}} \sum^n_{i=1}\Bigg [(Y_i - (\beta_0 + \beta_1X_i))^2\Bigg]\Bigg\}\phi^{c-1} exp\Bigg\{-d\phi\Bigg\}\] \[\scriptsize p(\phi|.)\propto\phi^{(\frac{n}{2}+c-1)}exp\Bigg\{-\phi\Bigg[\frac{\sum^n_{i=1}(Y_i-(\beta_0 +\beta_1X_i))^2}{2}+d\Bigg]\Bigg\}\] \[\scriptsize p(\phi|.)\propto\phi^{(\frac{n}{2}+c-1)}exp\Bigg\{-\phi\Bigg[\frac{\sum^n_{i=1}(Y_i^2- 2Y_i(\beta_0 +\beta_1X_i)+ (\beta_0+\beta_1X_i)^2)}{2}+d\Bigg]\Bigg\}\]

\[\scriptsize p(\phi|.)\propto\phi^{(\frac{n}{2}+c-1)}exp\Bigg\{-\phi\Bigg[\frac{\sum^n_{i=1}Y_i^2-2\beta_0\sum^n_{i=1}Y_i-2\beta_1\sum^n_{i=1}Y_iX_i+n\beta_0^2+2\beta_0\beta_1\sum^n_{i=1}X_i+ \beta_1^2\sum^n_{i=1}X_i^2}{2}+d\Bigg]\Bigg\}\]

\[\scriptsize \implies\phi|.\sim GAMA\Bigg(\Bigg(\frac{n}{2}+c\Bigg),\Bigg(\frac{\sum^n_{i=1}(Y_i-(\beta_0 +\beta_1X_i))^2}{2}+d\Bigg)\Bigg)\] ou

\[\scriptsize \implies\phi|.\sim GAMA\Bigg(\Bigg(\frac{n}{2}+c\Bigg),\Bigg(\frac{l}{2}+d\Bigg)\Bigg)\] onde:

\[\scriptsize l =(\sum^n_{i=1}Y_i^2-2\beta_0\sum^n_{i=1}Y_i-2\beta_1\sum^n_{i=1}Y_iX_i+n\beta_0^2+2\beta_0\beta_1\sum^n_{i=1}X_i+ \beta_1^2\sum^n_{i=1}X_i^2) \]

2 Algoritmo para o amostrador de Gibbs

  1. Defina valores inicias para os parâmetros \(\beta_0,\beta_1,\phi\)
  2. Obter um novo valor \(\theta^{(i)} = (\beta_0^{(i)}, \beta_1^{(i)},\phi^{(i)})\) ,através da geração sucessivas das distribuições:
  3. Distribuição condicional completa de \(\beta_0|.\)
  4. Distribuição condicional completa de \(\beta_1|.\), utilizando os valores gerados em 3.
  5. Distribuição condicional completa de \(\phi|.\), utilizando os valores gerados em 3 e 4.
  6. Repita o processo a partir do passo 2 até obter a convergência.

2.1 Tratamento da cadeia

2.1.2 Analisando a autocorrelação

Podemos observar nos gráficos da autocorrelação, que não é necessario retirar espaçamento nas cadeias de \(\scriptsize\beta_0, \beta_1,\phi\). Também foi gerado uma amostra de tamanho 4000 para realizar o teste de diagnóstico de Raftery e Lewis (1992), que também confirmou o resultado.

2.1.3 Método de Gelman e Rubin

Para verificar a convergência da distribuição a posteriori, foi realizado o método de Gelman e Rubin(1992), onde podemos observar que em muitos casos a convergência pode ser facilmente determinada provinda de sequências múltiplas independentes em paralelo.

Portanto, para realizar o teste foi gerada uma segunda amostra do algoritmo de Gibbs, com diferentes valores iniciais.

  • Análise visual das cadeias antes do tratamento

  • Amostra para aquecimento
  • Analisando a autocorrelação

Como pode ser visto nos gráficos da autocorrelação, não é necessario retirar espaçamento nas cadeias de \(\beta_0, \beta_1,\phi\).

O resultado do teste de Gelman e Rubin (1992) mostra que as cadeias convergem. Como podemos observar todos os valores do “Point est.” estão próximos de 1.

## Potential scale reduction factors:
## 
##      Point est. Upper C.I.
## [1,]      0.999          1
## Potential scale reduction factors:
## 
##      Point est. Upper C.I.
## [1,]       1.01       1.03
## Potential scale reduction factors:
## 
##      Point est. Upper C.I.
## [1,]          1          1

2.3 Estimativas a posteriori

3 Algoritmo para o amostrador de Gibbs com um passo de Metropolis-Hatings

3.0.1 Distribuição Proposta

\(\scriptsize c= log(\phi)\sim N(log(\phi^{(i)},var)\)

A razão de metropolis é dada por:

\(\scriptsize RM= \frac{\pi{\phi^{p}}}{\pi{\phi^{(i)}}} \frac{\phi^p}{\phi^{(i)}}\)

\(\scriptsize log\big(\frac{\pi{\phi^{p}}}{\pi{\phi^{(i)}}} \frac{\phi^p}{\phi^{(i)}}\big)= log(\pi{\phi^{p}})- log(\pi{\phi^{(i)}})+ log(\phi^p) - log(\phi^{(i)})\)

onde:

\[\scriptsize \pi{\phi}= \phi^{(\frac{n}{2}+c-1)}exp\Bigg\{-\phi\Bigg[\frac{\sum^n_{i=1}Y_i^2-2\beta_0\sum^n_{i=1}Y_i-2\beta_1\sum^n_{i=1}Y_iX_i+n\beta_0^2+2\beta_0\beta_1\sum^n_{i=1}X_i+ \beta_1^2\sum^n_{i=1}X_i^2}{2}+d\Bigg]\Bigg\}\] sendo

\[\scriptsize l =(\sum^n_{i=1}Y_i^2-2\beta_0\sum^n_{i=1}Y_i-2\beta_1\sum^n_{i=1}Y_iX_i+n\beta_0^2+2\beta_0\beta_1\sum^n_{i=1}X_i+ \beta_1^2\sum^n_{i=1}X_i^2) \] \[\scriptsize \pi{\phi}= \phi^{(\frac{n}{2}+c-1)}exp\Bigg\{-\phi\Bigg[\frac{l}{2}+d\Bigg]\Bigg\}\]

3.1 Algoritmo para o amostrador de Gibbs com passo de Metropolis_Hastings

  1. Defina valores inicias para os parâmetros \(\scriptsize \beta_0,\beta_1,\phi\)
  2. Obter um novo valor \(\scriptsize \theta^{(i)} = (\beta_0^{(i)}, \beta_1^{(i)},\phi^{(i)})\) ,através da geração sucessivas das distribuições:
  3. Distribuição condicional completa de \(\scriptsize \beta_0|.\)
  4. Distribuição condicional completa de \(\scriptsize \beta_1|.\), utilizando os valores gerados em 3.
  5. O auxiliar c com uma distribuição \(\scriptsize c\sim N(log(\phi^{(i)},var)\) onde o phi proposto é \(\scriptsize \phi^p= exp(c)\), utilizando os valores gerados em 3 e 4.
  6. Calcular \(\scriptsize \alpha=min(1,\frac{\pi{\phi^{p}}}{\pi{\phi^{(i)}}} \frac{\phi^p}{\phi^{(i)}})\)
  7. Gerar um valor u da distribuição uniforme(0,1)
  8. Se \(\scriptsize u<=\alpha\) então o valor proposto é aceito como novo valor de phi proposto, \(\scriptsize \phi^{(i+1)}= \phi^p\). Caso contrário, \(\scriptsize \phi^{(i+1)}= \phi^{(i)}\)
  9. Repita o processo a partir do passo 2 até obter a convergência.

O algoritmo de Gibbs com passo de Metropolis Hastings possui taxa de aceitação de aproximadamente 40%, considerada boa(para passeio aleatório).

## [1] 0.488

3.2 Tratamento da cadeia

3.2.3 Método de Gelman e Rubin

Para verificar a convergência da distribuição a posteriori, foi realizado o método de Gelman e Rubin(1992), onde podemos observar que em muitos casos a convergência pode ser facilmente determinada provinda de sequências múltiplas independentes em paralelo. Portanto, para realizar o teste foi gerada uma segunda amostra do algoritmo de Gibbs com passo de Metropolis, com diferentes valores iniciais.

## [1] 0.456
  • Análise visual das cadeias antes do tratamento

  • Amostra para aquecimento e espaçamento
  • Analisando a autocorrelação

O resultado do teste de Gelman e Rubin (1992) mostra que as cadeias convergem. Como podemos observar todos os valores do “Point est.” estão próximos de 1.

## Potential scale reduction factors:
## 
##      Point est. Upper C.I.
## [1,]      0.996      0.996
## Potential scale reduction factors:
## 
##      Point est. Upper C.I.
## [1,]      0.994      0.999
## Potential scale reduction factors:
## 
##      Point est. Upper C.I.
## [1,]       1.01       1.06

3.4 Estimativas a posteriori