Dada uma amostra aleatória \(X_1,X_2,\cdots,X_n\), da distribuição cuja f.d.p é \(f_X(x)=\theta\;x^{\theta-1}, \quad x\in(0,1)\quad \mbox{e} \quad \theta>0\), obtenha o Erro Quadrático Médio (EQM) do estimador \[\hat{\theta}= \frac{n}{\sum\limits_{i=1}^{n}-log(X_i)}.\]
Seja \(X_1,X_2,\cdots,X_n\) uma amostra aleatória da distribuição cuja f.d.p é \(f_X(x)=\theta\;x^{\theta-1}, \quad x\in(0,1)\quad \mbox{e} \quad \theta>0\).
Defina-se \(Y_i:=-log(X_i), \quad \forall i\in \{1,2,\ldots,n\} \quad \wedge \quad Z:=\sum\limits_{i=1}^{n}Y_i\).
Como \(X_1,X_2,\cdots,X_n\) são i.i.d, então \(Y_1,Y_2,\cdots,Y_n\) também são i.i.d, pois as v.a’s \(Y_{i's}\) são funções disjuntas de \(X_{i's}\).
\[Y_i \sim Exp(\theta), \;i=1,2,...,n \quad {e} \quad Y_{i's} \;\; {ind.} \;\; \implies\;\; Z=\sum\limits_{i=1}^{n}Y_i\sim Gama(n,\theta)\quad \implies \quad \frac{1}{Z}\sim Gama\; Inversa(n,\theta).\quad (mostre!)\]
Portanto, \[ E\bigg[\frac{1}{Z}\bigg]=\frac{\theta}{n-1} \quad \mbox{e}\quad Var\bigg[\frac{1}{Z}\bigg]=\frac{\theta^2}{(n-1)^2(n-2)}\] (consulte em https://en.wikipedia.org/wiki/Inverse-gamma_distribution).
Logo, \[EQM[\hat{\theta}]=Var[\hat{\theta}]+\big(Bias[\hat{\theta}]\big)^2 = \frac{n^2\theta^2}{(n-1)^2(n-2)}+\frac{\theta^2}{(n-1)^2} = \frac{(n+2)\theta^2}{(n-1)(n-2)}\]
EQM<-function(n,theta){(n+2)*theta^2/((n-1)*(n-2))}
EQM.sim<-function(N,n,theta){
set.seed(10/03/2021)
amostra.GI<-1/rgamma(N,n,theta) # geracao de amostra de tamanho N da Gama Inv.
esp.sim<-n*mean(amostra.GI) # esperanca do estimador (simulada)
var.sim<-n^2* var(amostra.GI) # variancia do estimador (simulada)
return(var.sim + ( esp.sim - theta)^2) # retorno do EQM simulado
}
res<-c(EQM(20,3), EQM.sim(1e6,20,3))
setNames(res, c("EQM Teorico ", " EQM Simulado" ))
## EQM Teorico EQM Simulado
## 0.5789474 0.5800385