INFERENCIA ESTADÍSTICA

Método de máxima verosimilitud

Práctica 3

José Antonio López Torres

parte 1

a)

Dados los datos

Tenemos que \[f(x_1,...,x_9;\lambda)=f(x_1,\lambda)...f(x_9;\lambda)\] Donde \[f(x_i;\lambda)=\frac{\lambda^{x_i}e^{-\lambda}}{x_i!}\] Entonces

\[f(x_1,...,x_9;\lambda)=f(x_1,\lambda)...f(x_9;\lambda)=\prod_{i=1}^{9}\frac{\lambda^{x_i}e^{-\lambda}}{x_i!}= e^{-9\lambda}\lambda^{\sum_{i=1}^{9}x_i}\frac{1}{x_1!...x_9!}\] Así, la función de verosimilitud es \[L(\lambda,datos)=e^{-9\lambda}\lambda^{\sum_{i=1}^{9}x_i}\frac{1}{x_1!...x_9!}\] Luego, tenemos que la función de logverosimilitud es

\[l(\lambda,datos)=log(L(\lambda,datos))= -9\lambda +\ \sum_{i=1}^{9}x_ilog(\lambda) +\ log(\frac{1}{x_1!...x_9!})\] Así, tenemos que \[\frac{d}{d\lambda}l(\lambda;datos)= -n +\ \sum_{i=1}^{9}x_i\frac{1}{\lambda}\]

Igualando a cero y despejando \(\lambda\) tenemos que \[\lambda=\frac{\sum_{i=1}^{9}x_i}{9}=\overline{X}\]

donde \[\overline{X}= 19 \]

b)

Ahora, definamos un estimador de \(\lambda\) que sea insesgado.

Sea \[\overline{\alpha}= \frac{x_1+ x_3+x_5+x_7+x_9}{5}= \frac{25+20+24+10+4}{5}=\frac{83}{5}=16.6 \]

Ahora, notemos que \[E[\overline{\alpha}]=E[\frac{x_1+ x_3+x_5+x_7+x_9}{5}]=\frac{E[x_1+ x_3+x_5+x_7+x_9]}{5}=\frac{E[x_1]+ E[x_3]+E[x_5]+E[x_7]+E[x_9]}{5}=\frac{5\lambda}{5}=\lambda\] Por lo que concluimos que \(\overline{\alpha}\) es un estimador insesgado.

Podemos notar que hay diferencia entre el estimador encontrado por el método de máxima verosimilitud y el definido anteriormente, se esperaria que al ser un estimador insesgado su valor fuese más cercano al obtenido por el método de MV, sin enbargo, esto no sucedió.

Ahora, veamos las funciones de verosimilitud, logverosimilitud, verosimilitud relativa y logverosimilitud relativa.

función de verosimilitud

n<-9
y<-c(25,20,20,30,24,15,10,23,4)
x<-seq(10,30,by=0.5)
funcion.ver<- (1/prod(factorial(y)) )*exp(-n*x)*(x^sum(y))
matplot(x,funcion.ver,type="l",xlab="funcion de verosimilitud", col = "red")

posi<-which.max(funcion.ver)
optimo<-funcion.ver[posi]

función de logverosimilitud

funcion.logver<- log(funcion.ver)
 matplot(x,funcion.logver,type="l",xlab="funcion de logverosimilitud", col = "green")

 posil<-which.max(funcion.logver)
 optimol<-funcion.logver[posil]

función de verosimilitud relativa

funcion.verrel<-funcion.ver/optimo
matplot(x,funcion.verrel,type="l",xlab="funcion de verosimilitud relativa", col = "orange")

# función de logverosimilitud relativa

funcion.logverrel<-funcion.logver/-optimol
matplot(x,funcion.logverrel,type="l",xlab="funcion de logverosimilitud relativa", col = "magenta")

# parte 2 Al igual que en el caso anterior, tenemos que la función de verosimilitud esta dada por \[L(\lambda,datos)=e^{-n\lambda}\lambda^{\sum_{i=1}^{n}x_i}\frac{1}{x_1!...x_n!}\]

Para este caso tomaremos $n=5 $ y \(n=10\) ya que al hacerlo con más datos, las funciones toman valores muy grandes y no se puede apreciar bien en la gráfica. Así, para \(n=5\) tenemos:

z<-rpois(5,19)
z
## [1] 25 26 15 29 22
mean(z)
## [1] 23.4

\[\overline{\lambda}=\overline{X}=\sum_{i=1}^{5}x_i=17\] Así, tenemos que:

función de verosimilitud

n<-length(z)
lamda<-mean(z)
x1<-seq(12,1.5*lamda,by=0.5)
funcion.ver<- exp(-n*x1)*(x1^sum(z))
matplot(x1,funcion.ver,type="l",xlab="funcion de verosimilitud n=5", col = "red")

posiz<-which.max(funcion.ver)
optimoz<-funcion.ver[posiz]

función de logverosimilitud

funcion.logver<- log(funcion.ver)
matplot(x1,funcion.logver,type="l",xlab="funcion de logverosimilitud", col = "green")

posil<-which.max(funcion.logver)
optimol<-funcion.logver[posil]

función de verosimilitud relativa

funcion.verrel<-funcion.ver/optimo
matplot(x1,funcion.verrel,type="l",xlab="funcion de verosimilitud relativa", col = "orange")

# función de logverosimilitud relativa

funcion.logverrel<-funcion.logver/optimol
matplot(x1,funcion.logverrel,type="l",xlab="funcion de logverosimilitud relativa", col = "magenta")

Luego, para el caso \(n=10\) tenemos que para los datos:

z<-rpois(10,19)
z
##  [1] 19 23 14 16 28 17 14 22 19 16
mean(z)
## [1] 18.8

Tenemos que:

\[\overline{\lambda}=\overline{X}=\sum_{i=1}^{10}x_i=18.4\] Así tenemos:

función de verosimilitud

n<-length(z)
lamda<-mean(z)
x1<-seq(12,1.5*lamda,by=0.5)
funcion.ver<- exp(-n*x1)*(x1^sum(z))
matplot(x1,funcion.ver,type="l",xlab="funcion de verosimilitud n=5", col = "red")

posiz<-which.max(funcion.ver)
optimoz<-funcion.ver[posiz]

función de logverosimilitud

funcion.logver<- log(funcion.ver)
matplot(x1,funcion.logver,type="l",xlab="funcion de logverosimilitud", col = "green")

posil<-which.max(funcion.logver)
optimol<-funcion.logver[posil]

función de verosimilitud relativa

funcion.verrel<-funcion.ver/optimo
matplot(x1,funcion.verrel,type="l",xlab="funcion de verosimilitud relativa", col = "orange")

función de logverosimilitud relativa

funcion.logverrel<-funcion.logver/optimol
matplot(x1,funcion.logverrel,type="l",xlab="funcion de logverosimilitud relativa", col = "magenta")

Así, podemos notar que entre mayor sea la muestra, más cerca estará el estimador del valor poblacional.