INFERENCIA ESTADÍSTICA

Método de máxima verosimilitud

tarea 3

José Antonio López Torres

1)

Sea \(X_1,X_2,...,X_n\) una muestra con media \(\mu\) y varianza

\(\sigma^2\). Sea \[\hat{\theta}=\sum_{1=1}^{n}a_1x_i\] un estimador de \(X_i\), tal que \[\sum_{i=1}^{n}a_i=1\] Veamos que \(\hat{\theta}\) es un estimador insesgado. Tenemos que: \[E[\hat{\theta}]=E[\sum_{1=1}^{n}a_1x_i]=\sum_{i=1}^{n}a_iE[x_i]=\sum_{i=1}^{n}a_i\mu=(1)\mu=\mu\] Por lo tanto, \(\hat{\theta}\).

2)

Se piensa que el tiempo entre emisiones departícula de una fuente radiactiva son distribuidas exponencialmente con media . Sin embargo, el Contador Geiger usado para registrar las emisiones se cierra para 1 unidad de tiempo después de la grabación de una emisión. Así la función de densidad del tiempo \(X\) entre dos grabaciones sucesivas entre si,es:

\[f(\theta)=\frac{1}{\theta}e^{-\frac{(x-1)}{\theta}} \ con\ x\geq1 \] Los siguientes son datos de 10 tiempos entre grabaciones:

A<-matrix( nrow = 2, ncol = 5)
A[1,1]<-1.47
A[1,2]<-1.46
A[1,3]<-2.2
A[1,4]<-1.36
A[1,5]<-2.9
A[2,1]<-3.71
A[2,2]<-3.89
A[2,3]<-1.29
A[2,4]<-1.86
A[2,5]<-1.81
A
##      [,1] [,2] [,3] [,4] [,5]
## [1,] 1.47 1.46 2.20 1.36 2.90
## [2,] 3.71 3.89 1.29 1.86 1.81

Tenemos que \(y=x-1\geq0\) entonces \(x=y+1\) y

\[f(\theta)=\frac{1}{\theta}e^{-\frac{(x-1)}{\theta}}=f(\theta)=\frac{1}{\theta}e^{-\frac{(y+1-1)}{\theta}}=f(\theta)=\frac{1}{\theta}e^{-\frac{(y)}{\theta}} \ con \ y\geq0 \] \[\theta=E[y]=E[x-1]=E[x]-1\] \[E[x]=\theta+1\]

a)

Así

\[L(\theta;datos)=\prod_{i=1}^{n}\frac{1}{\theta}e^{-\frac{(y)}{\theta}}= \frac{1}{\theta^{n}}e^{\frac{-\sum_{i=1}^{n}y_i}{\theta}}\]

Entonces \[ l(\theta;datos)=log(L(\theta;datos))=-nlog(\theta)-\frac{\sum_{i=1}^{n}y_i}{\theta}\]

Así, \[l´(\theta;datos)=\frac{-n}{\theta}+ \frac{\sum_{i=1}^{n}y_i}{\theta^2}=0\]

Si y solo si \[\frac{n}{\theta}= \frac{\sum_{i=1}^{n}y_i}{\theta^2}\] \[\theta=\frac{\sum_{i=1}^{n}y_i}{n}=\overline{Y}.\] ## b) Así, tenemos que \[E[\overline{Y}]=E[\frac{\sum_{i=1}^{n}y_i}{n}]=\frac{E[\sum_{i=1}^{n}y_i]}{n}=\frac{n\theta}{n}=\theta\] \[E[\overline{Y}]=E[\overline{X}-1]=E[\overline{X}]-1\] entonces \[E[\overline{X}]=E[\overline{Y}]+1=\theta+1\] Por lo tanto, el estimador de \(\overline{X}\) es insesgado Así, el estimador es insesgado, donde \[\overline{Y}+1=\overline{X}= 2.195\] Entonces \[\overline{Y}=2.195-1=1.195\] Ahora, definamos las funciones de verosimilitud relativa y logverosimilitud relativa. Por comodidad, trabajemos con la v.a \(Y\), así \[R(\theta;datos)=\frac{L(\theta;datos)}{L(\hat{\theta};datos)}=\frac{1}{\theta^{n}(130804.9)^{-1}}e^{\frac{-\sum_{i=1}^{n}y_i}{\theta}}\] donde \(n=10\) y su gráfica es la siguiente:

x <- seq(0.1, 2.5, by = 0.1)

a<-exp(-11.95/1.195)/(1.195)^10
b<-1/a
z<-b*exp(-11.95/x)/x^10
plot(x, z, type = "l", col = "blue", lwd = 2, xlab = "y", ylab = "f(y)", main = "Gráfico de R")

Ahora, tenemos que la funcion logverosimilitud relativa está dada por: \[r(\theta;datos)=logR(\theta;datos)=log(130804.9)-10log(\theta)-\frac{\sum_{i=1}^{n}y_i}{\theta}\]

Dónde su gráfica es la siguiente:

x <- seq(0.1, 2.5, by = 0.1)
w<- log(130804.9)-10*log(x) -11.95/x
plot(x, w, type = "l", col = "blue", lwd = 2, 
     xlab = "y", ylab = "f(y)", main = "Gráfico de r")

e)

Ahora, encontremos la función score, la función de información y la función información de Fisher. Para la función score tenemos que \[S(\theta)=l´(\theta;datos)=\frac{-n}{\theta}+\frac{\sum_{i=1}^{n}y_i}{\theta^2}\]

Y su gráfica es la siguiente:

x <- seq(0.1, 2.5, by = 0.1)
s<- -10/x + 11.95/x^2
plot(x, s, type = "l", col = "blue", lwd = 2, 
     xlab = "y", ylab = "f(y)", main = "Gráfico de s")

Ahora, para la función información tenemos que \[I(\theta)=-l´´(\theta;datos)=-\frac{n}{\theta^2}+\frac{2\sum_{i=1}^{n}y_i}{\theta^3}\]

Y su gráfica se ve así:

x <- seq(0.1, 2.5, by = 0.1)
i<- -10/x^2 + 23.9/x^3
plot(x, i, type = "l", col = "blue", lwd = 2, 
     xlab = "y", ylab = "f(y)", main = "Gráfico de I")

Por ultimo, tenemos que la función información de Fisher es: \[I(\hat{\theta})=I(\overline{Y})=\]

f<- -10/(1.195)^2 + 23.9/(1.195)^3
f
## [1] 7.002679

f)

Ahora, tenemos que un intervalo de máxima verosimilitud del 10% viene dado al resolver la ecuación: \[log(130804.9) -10log(\theta) - \frac{11.95}{\theta}=log(0.1)\] Esto es, aproximadamente

f <- function(x) {
  (130804.9 / x^10) * exp(-11.95 / x) - 0.1
}

sol1 <- uniroot(f, c(1, 3))
sol2 <- uniroot(f, c(0.6, 0.7))
sol1$root
## [1] 2.567686
sol2$root
## [1] 0.6494656

Así, el intervalo de máxima verosimilitud es: \[(0.6494656,2.567686)\]

3)

Sea \(X_1,X_2,...,X_n\) una muestra aleatoria de una función de probabilidad \[f(x)=\theta^x(1-\theta)^{1-x}\] donde \(x=0,1\) y \(0\leq\theta\leq\frac{1}{2}\).

a)

Tenemos que un estimador de \(\theta\) por el método de momentos viene dada al igualar

\[\mu_1=M_1\] Donde \[\mu_1=E[x^1]=E[x]=\theta\] \[M_1=\frac{\sum_{i=1}^{n}x_i}{n} =\overline{X} \] Así: \[\theta=\mu_1=M_1=\overline{X}\] Por lo tanto, un estimador de \(\theta\) por el método de momentos es el promedio, donde \[E[\overline{X}]=\frac{E[\sum x_i]}{n}=\frac{n \theta}{n}=\theta\] \[Var(\overline{X})=\frac{Var(\sum x_i)}{n^2}=\frac{n\theta(1-\theta)}{n^2}=\frac{\theta(1-\theta)}{n}\] Entonces \[SE(\overline{X})=\sqrt{Var(\overline{X})}=\sqrt{\frac{\theta(1-\theta)}{n}}\] Además, tenemos que \[MSE(\overline{X})=E[(\overline{X}-\theta)^2]=E[\overline{X}^2-2\overline{X}\theta + \theta^2 ]=\] \[E[\overline{X}^2]-E[2\overline{X}\theta ] + E[\theta^2]=E[\overline{X}^2]-2\theta E[\overline{X}]+\theta^2=\] \[E[\overline{X}^2] -2\theta^2+\theta^2=E[\overline{X}^2] -\theta^2\] Donde \[E[\overline{X}^2]=Var(\overline{X})+E[\overline{X}]^2= \frac{\theta(1-\theta)}{n} + \theta^2\]

Entonces \[MSE(\overline{X})=E[\overline{X}^2] -\theta^2=\frac{\theta(1-\theta)}{n} + \theta^2-\theta^2=\frac{\theta(1-\theta)}{n}\] ## b) Ahora, encontremos el un estimador de \(\theta\) por el método me máxima verosimilitud.Tenemos que \[L(\theta;datos)=\prod_{i=1}^{n}\theta^{x_i}(1-\theta)^{1-x_i}=\theta^{\sum_{i=1}^{n}x_i}(1-\theta)^{\sum_{i=1}^{n}(1-x_i)}\] Entonces \[l(\theta;datos)=log(L(\theta;datos))=log(\theta^{\sum_{i=1}^{n}x_i}(1-\theta)^{\sum_{i=1}^{n}(1-x_i)})=\] \[\sum_{i=1}^{n}x_ilog(\theta) +\sum_{i=1}^{n}(1-x_i)log(1-\theta)\] Entonces tenemos que \[l'(\theta;datos)=\frac{\sum_{i=1}^{n}x_i}{\theta}-\frac{\sum_{i=1}^{n}(1-x_i)}{1-\theta}=0\]

si \[\frac{\sum_{i=1}^{n}x_i}{\theta}=\frac{\sum_{i=1}^{n}(1-x_i)}{1-\theta}\]

\[(1-\theta)\sum_{i=1}^{n}x_i=\theta\sum_{i=1}^{n}(1-x_i)\] \[\sum_{i=1}^{n}x_i-\theta\sum_{i=1}^{n}x_i=n\theta-\theta\sum_{i=1}^{n}x_i\] \[\sum_{i=1}^{n}x_i=n\theta\] \[\theta=\frac{\sum_{i=1}^{n}x_i}{n}=\overline{X}\] Por lo tanto, un estimador por el método de máxima verosimilitud de \(\theta\) es el promedio. Así

\[E[\overline{X}]=\theta\] \[SE(\overline{X})=\sqrt{\frac{\theta(1-\theta)}{n}}\] \[MSE(\overline{X})=\frac{\theta(1-\theta)}{n}\] Por lo tanto, el estimador de \(\theta\) por el método de momentos coincide con el estimador por el método de máxima verosimilitud.

c)

Ahora, tenemos que la función \(score\) viene dada por la expresión \[S(\theta)=l'(\theta;datos)=\frac{\sum_{i=1}^{n}x_i}{\theta}-\frac{\sum_{i=1}^{n}(1-x_i)}{1-\theta}=\frac{n\overline{X}}{\theta}-\frac{n(1-\overline{X})}{1-\theta}\]

La función de \(información\) viene dada por la expresión \[I(\theta)=-l''(\theta;datos)=\frac{n\overline{X}}{\theta^2}-\frac{n(1-\overline{X})}{(1-\theta)^2}\] Y por ultimo, la función de información de Fisher viene dada por la expresion \[J_{\hat{\theta}}=I(\hat{\theta})=\frac{n\overline{X}}{\overline{X}^2}-\frac{n(1-\overline{X})}{(1-\overline{X})^2}=\frac{n}{\overline{X}}-\frac{n}{(1-\overline{X})}=\frac{n(1-\overline{X})-n\overline{X}}{\overline{X}(1-\overline{X})}=\frac{n}{\overline{X}(1-\overline{X})}\]

Así

\[\frac{1}{J_{\hat{\theta}}}=\frac{\overline{X}(1-\overline{X})}{n}\] Y tenemos que \[\hat{Var}(\hat{\theta}) =\frac{\overline{X}(1-\overline{X})}{n} \] Por lo tanto \[\hat{Var}(\hat{\theta})=\frac{1}{J_{\hat{\theta}}}\] ## e) Ahora, encontremos la cota de Cramer-Rao para cualquier estimador de \(\theta\), para ello veamos que se cumple que
\[E[\frac{\partial}{\partial\theta}log(f(\textbf{X};\theta))]^2=-E[\frac{\partial^2}{\partial\theta^2}log(f(\textbf{X};\theta))]\] Veamos para \(E[\frac{\partial}{\partial\theta}log(f(\textbf{X};\theta))]^2\) Tenemos que \[E[\frac{\partial}{\partial\theta}log(f(\textbf{X};\theta))]^2)=E[\frac{x}{\theta}-\frac{(1-x)}{(1-\theta)}]^2=E[\frac{x^2}{\theta^2}-2\frac{x(1-x)}{(1-\theta)}+\frac{(1-x)^2}{(1-\theta)^2}]=\] \[\frac{E[x^2]}{\theta^2}-2\frac{E[x(1-x)]}{(1-\theta)}+\frac{E[(1-x)^2]}{(1-\theta)^2}=\frac{\theta}{\theta^2}-2\frac{(E[x]-E[x^2])}{(1-\theta)}+\frac{E[1]-2E[x]+E[x^2]}{(1-\theta)^2}=\] \[\frac{1}{\theta}-2\frac{(\theta-\theta)}{(1-\theta)}+\frac{1-2\theta+\theta}{(1-\theta)^2}=\frac{1}{\theta}+\frac{1-\theta}{(1-\theta)^2}=\frac{1}{\theta}+\frac{1}{(1-\theta)}=\] \[\frac{1-\theta+\theta}{\theta(1-\theta)}=\frac{1}{\theta(1-\theta)}\] Pues \(E[x^2]=Var(x)+(E[x])^2=\theta(1-\theta) +\theta^2=\theta\)

Ahora, tenemos que

\[-E[\frac{\partial^2}{\partial\theta^2}log(f(\textbf{X};\theta))]=-E[-\frac{x}{\theta^2}-\frac{(1-x)}{(1-\theta)^2}]=E[\frac{x}{\theta^2}+\frac{(1-x)}{(1-\theta)^2}]=\] \[\frac{E[x]}{\theta^2}+\frac{E[1-x]}{(1-\theta)^2}=\frac{\theta}{\theta^2}+\frac{E[1]-E[x]}{(1-\theta)^2}=\frac{\theta}{\theta^2}+\frac{1-\theta}{(1-\theta)^2}=\] \[\frac{1}{\theta}+\frac{1}{(1-\theta)}=\] \[\frac{1-\theta+\theta}{\theta(1-\theta)}=\frac{1}{\theta(1-\theta)}\] Por lo tanto se cumple que

\[E[\frac{\partial}{\partial\theta}log(f(\textbf{X};\theta))]^2=-E[\frac{\partial^2}{\partial\theta^2}log(f(\textbf{X};\theta))]\]

Así, tenemos que la cota de Cramer-Rao esta definida como

\[V\hat{\theta}\geq\frac{[\frac{\partial}{\partial\theta}E[\hat\theta]]^2}{-nE[\frac{\partial^2}{\partial\theta^2}log(f(\textbf{X};\theta))]}\]

sustituyendo tenemos la siguiente expresión \[V\hat{\theta}\geq\frac{[\frac{\partial}{\partial\theta}E[\hat\theta]]^2}{\frac{n}{\theta(1-\theta)}}\] \[V\hat{\theta}\geq\frac{\theta(1-\theta)[\frac{\partial}{\partial\theta}E[\hat\theta]]^2}{n}\] la cual es la cota de Cramer-Rao para cualquier estimador de \(\theta\). Ahora, tenemos que el estimador calculado anteriormente por el método de momentos y el mpetodo de máxima verosimilitud es \(\overline{X}\), el cual es un estimador insesgado, por lo cual

\[[\frac{\partial}{\partial\theta}E[\overline{X}]]^2=1\] Así, tenemos qe la cota de Cramer-Rao para \(\overline{X}\) es \[V\overline{X}\geq\frac{\theta(1-\theta)}{n}\]

Y tenemos que \[Var(\overline{X})=\frac{\theta(1-\theta)}{n}\] Por lo cual, \(Var(\overline{X})\) alcanza la cota de Cramer-Rao, por lo cual el estimador \(\overline{X}\) es un estimador eficiente, ya que es insegasdo y es de varianza mínima, pues si varianza alcanza la cota de Cramer-Rao.

Además \(\overline{X}\) es consistente, pues
\[\overline{X}_n \rightarrow\theta \ \ \ \ cuando \ \ \ \ n\rightarrow\infty \] esto es \[\lim_{n\rightarrow\infty}P( \left|\overline{X}_n-\theta \right| \geq\epsilon)=0 \ \ \ \ \ \ \ \forall\epsilon\geq0 \]

4)

Si \(X_1,X_2,...,X_n\) es una muestra aleatoria de una distribución normal con media \(\mu\) y varianza \(\sigma^2\) finita.

Encontremos la cota de Cramer-Rao para cualquier estimador de \(\sigma^2\). Tenemos que \[X_i\sim N(\mu,\sigma^2)\] Tomemos \(a=\sigma^2\) por comodidad, así \[f(x;\mu;a)=\frac{1}{\sqrt{2\pi a}}e^{-\frac{1}{2}(\frac{x-\mu}{\sqrt{a}})^2}\] \[log(f(x;\mu;a))=log(\frac{1}{\sqrt{2\pi}}) -\frac{1}{2}log(a)-\frac{(x-\mu)^2}{2a}\]

Veamos que \[E[\frac{\partial}{\partial a}log(f(\textbf{X};\mu;a))]^2=-E[\frac{\partial^2}{\partial a^2}log(f(\textbf{X};\mu;a))]\] Tenemos que \[E[\frac{\partial}{\partial a}log(f(\textbf{X};\mu;a))]^2=E[-\frac{1}{2a}+\frac{(x-\mu)^2}{2a^2}]^2=E[\frac{1}{4a^2}-\frac{2(x-\mu)^2}{4a^3}+\frac{(x-\mu)^4}{4a^4}]=\] \[\frac{1}{4a^2}-\frac{2E[x-\mu]^2}{4a^3}+\frac{E[x-\mu]^4}{4a^4}=\frac{1}{4a^2}-\frac{2a}{4a^3}+\frac{3a^2}{4a^4}=\] \[\frac{1}{4a^2}-\frac{1}{2a^2}+\frac{3}{4a^2}=\frac{1-2+3}{4a^2}=\frac{2}{4a^2}=\frac{1}{2a^2}\]

sustituyendo \(a=\sigma^2\) tenemos que \[E[\frac{\partial}{\partial a}log(f(\textbf{X};\mu;a))]^2=\frac{1}{2\sigma^4}\] Ahora, tenemos que

\[-E[\frac{\partial^2}{\partial a^2}log(f(\textbf{X};\mu;a))]=-E[\frac{1}{2a^2}-\frac{(x-\mu)^2}{a^3}]=\] \[-\frac{1}{2a^2}+\frac{E[x-\mu]^2}{a^3}=-\frac{1}{2a^2}+\frac{a}{a^3}=-\frac{1}{2a^2}+\frac{1}{a^2}=\frac{2-1}{2a^2}=\] \[\frac{1}{2\sigma^4}\] Por lo tanto se cumple que \[E[\frac{\partial}{\partial a}log(f(\textbf{X};\mu;a))]^2=-E[\frac{\partial^2}{\partial a^2}log(f(\textbf{X};\mu;a))]\] Así, definimos la cota de Cramer-Rao para cualquier estimador de \(\sigma^2\) como \[V\hat{\sigma^2}\geq\frac{[\frac{\partial}{\partial\sigma^2}E[\hat{\sigma^2}]]^2}{-nE[\frac{\partial^2}{\partial(\sigma^2)^2}log(f(\textbf{X};\mu;\sigma^2))]}\]

sustituyendo tenemos \[V\hat{\sigma^2}\geq\frac{[\frac{\partial}{\partial\sigma^2}E[\hat{\sigma^2}]]^2}{\frac{n}{2\sigma^4}}\] \[V\hat{\sigma^2}\geq\frac{2\sigma^4[\frac{\partial}{\partial\sigma^2}E[\hat{\sigma^2}]]^2}{n}\] el cual es la cota de Cramer-Rao para todo estimador de \(\sigma^2\). Ahora, tomando a \(S^2\) como estimador de \(\sigma^2\), donde \(S^2\) es un estimador insesgado, tenemos que la cota de Cramer-Rao se expresa como

\[VS^2\geq\frac{2\sigma^4}{n}\] Pero, tenemos que \[Var(S^2)=\frac{2\sigma^4}{n-1}>\frac{2\sigma^2}{n}\] Por lo cual, \(S^2\) no alcanza la cota de Cramer-Rao, por lo cual no es de varianza mínima, sin embargo, tenemos que \[\lim_{n\rightarrow\infty}\frac{VS_n^2}{\frac{2\sigma^4}{n}}=\lim_{n\rightarrow\infty}\frac{\frac{2\sigma^4}{n-1}}{\frac{2\sigma^4}{n}}=\lim_{n\rightarrow\infty}\frac{n}{n-1}=1\]

Por lo cual \(S^2\) es eficiente. Ahora, para \(\hat{S}^2\)

Tenemos que \[E[ \hat{S}^2]=\frac{n-1}{n}\sigma^2\] Asi \[[\frac{\partial}{\partial\sigma^2}E[\hat{S}^2]]^2=[\frac{n-1}{n}]^2=\frac{(n-1)^2}{n{^2}}\]

Asi, tenemos que la cota de Cramer-Rao para \(\hat{S}^2\) es \[V\hat{\sigma^2}\geq\frac{2\sigma^4[\frac{\partial}{\partial\sigma^2}E[\hat{\sigma^2}]]^2}{n}\] \[V\hat{S^2}\geq\frac{2\sigma^4[\frac{\partial}{\partial\sigma^2}E[\hat{S^2}]]^2}{n}\] \[V\hat{S^2}\geq\frac{2\sigma^4\frac{(n-1)^2}{n^2}}{n}=\frac{2\sigma^4(n-1)^2}{n^3}\] Por lo cual, la cota de Cramer-Rao para \(\hat{S}^2\) es

\[V\hat{S^2}\geq\frac{2\sigma^4(n-1)^2}{n^3}\] Tenemos que \[\lim_{n\rightarrow\infty}\frac{V\hat{S}_n^2}{\frac{2(n-1)^2\sigma^4}{n^3}}=\lim_{n\rightarrow\infty}\frac{\frac{2(n-1)\sigma^4}{n^2}}{\frac{2(n-1)^2\sigma^4}{n^3}}=\lim_{n\rightarrow\infty}\frac{n}{n-1}=1\] Por lo tanto, \(\hat{S}^2\) es eficiente. Ahora, tenemos que \[\frac{n-1}{n^2}=\frac{n(n-1)}{n^3}>\frac{(n-1)(n-1)}{n^3}=\frac{(n-1)^2}{n^3}\] Entonces \[\frac{n-1}{n^2}>\frac{(n-1)^2}{n^3}\] \[Var(\hat{S}^2)=\frac{2\sigma^4(n-1)}{n^2}>\frac{2\sigma^4(n-1)^2}{n^3}\]

Lo que nos dice que no alcanza la cota de Cramer-Rao. Ahora, tenemos que \[\frac{n-1}{n^2}<\frac{1}{n}<\frac{1}{n-1}\] \[Var(\hat{S}^2)=\frac{2\sigma^4(n-1)}{n^2}<\frac{\sigma^4}{n}<\frac{2\sigma^4}{n-1}=Var(S^2)\]

Por lo cual

\[Var(\hat{S}^2)<Var(S^2)\] Por lo cual, tenemos que \(\hat{S^2}\) tiene menor varianza que \(S^2\), sin embargo, no es insesgado. en cambio \(S^2\) es insesgado pero tiene mayor varianza que \(\hat{S}^2\), pero \(S^2\) es asintóticamente eficiente, por lo cual, mientras la muestra sea grande, es mejor elegir a \(S^2\).

5)

Una palabra es una secuencia de ocho bits. Cada bit esta encendido (activado) o apagado (no activado) en un momento dado. Se almacenan 20 palabras de ocho bits y se induce un pico de voltaje. Sea X el número de inversiones de bits resultante por palabra. Suponga que X tiene una distribución binomial, con \(n = 8\) y \(p\) la probabilidad de inversión de un

Una vez que se lleva la realización de muestra:

\[1,0,0,0,0,0,1,1,0,1,2,1,1,0,1,0,2,2,3,0\] ## a) Calculemos el estimador de \(p\) por el método de máxima verosimilitud. Tenemos que \[L(p;datos)=\prod_{I=1}^{n}\binom{8}{x}p^x(1-p)^{8-x}\] \[l(p;datos)=nlog(\binom{8}{x})+n\overline{X}log(p)+n(8-\overline{X})log(1-p)\] Tenemos que \[l´(p;datos)=\frac{\overline{X}}{p}-\frac{8- \overline{X}}{1-p}=0\] si

\[\frac{\overline{X}}{p}=\frac{8-\overline{X}}{1-p}\] \[\overline{X}(1-p)=p(8-\overline{X})\]

\[\overline{X}(1-p)=p(8-\overline{X})\] \[\overline{X}-\overline{X}p=8p-\overline{X}p\] \[p=\frac{\overline{X}}{8}\] Así, un estimador para p es \[\hat{p}=\frac{\overline{X}}{8}\] Además, tenemos que \[E[\hat{p}]=E[\frac{\overline{X}}{8}]=\frac{1}{8}E[\frac{\sum_{i=1}^{n} x_i}{n}]=\frac{1}{8n}E[\sum_{i=1}^{n} x_i]=\frac{8np}{8np}=p\] Por lo tanto, \(\hat{p}\) es un estimador insesgado.

Sea, \(\hat{p}_1=\overline{X}\) tal que \[E[\hat{p}_1]=E[8\hat{p}]=8p\] El cual es un estimador no insesgado.

d)

Una línea de datos utiliza 64 bits. A partir de la estimación de p recién calculada, aproxime la probabilidad de que ocurra cuando mucho una inversión de bits

Tenemos que \[\hat{p}=\frac{\overline{X}}{8}=\frac{\frac{4}{5}}{8}=\frac{4}{40}=0.1 \]

Ahora, tenemos que \[F(x)=\sum_{i=0}^{x}\binom{64}{x}p^x(1-p)^{64-x}\] Usando el estimador de \(p\) tenemos \[F(x)=\sum_{i=0}^{x}\binom{64}{x}(0.1)^x(0.9)^{64-x}\] Así calculemos \[P(x\leq1)=F(1)=\sum_{i=0}^{1}\binom{64}{x}(0.1)^x(0.9)^{64-x}=\]

F<-pbinom(1,64,0.1)

F
## [1] 0.00956315

6)

La duración de un componente electrónico se rige por una distribución Weibull con \(\beta= 2\) y \(\theta\) desconocido donde su función de densidad viene dada por la expresión \[f(x)=\frac{2x}{\theta^2}e^{-(\frac{x}{\theta})^2}\]

a)

Obtengamos el estimador de \(\theta\) por el método de momentos.

Tenemos que: \[\mu_1=E[x^1]=E[x]=\theta\Gamma(1+\frac{1}{2})=\theta\frac{\sqrt{\pi}}{2}\] \[M_1=\frac{1}{n}\sum_{i=1}^{n}x_i=\overline{X}\]

Así, tenemos que \[\theta\frac{\sqrt{\pi}}{2}=\mu_1=M_1= \overline{X}\] Entonces \[\theta=\frac{2}{\sqrt{\pi}}\overline{X}\] Así, un estimador para \(\theta\) es \[\hat{\theta}=\frac{2}{\sqrt{\pi}}\overline{X}\]

Ahora, tenemos que \[E[\hat{\theta}]=E[\frac{2}{\sqrt{\pi}}\overline{X}]=\frac{2}{\sqrt{\pi}}E[\overline{X}]=\frac{2}{\sqrt{\pi}}\frac{n}{n}\frac{\sqrt{\pi}}{2}\theta=\theta\] Por lo tanto, \(\hat{\theta}\) es un estimador insesgado. ## b) Ahora, calculemos un estimador de \(\theta\) por el metodo de máxima verosimilitud.

Tenemos que \[L(\theta;datos)=\prod_{i=1}^{n}(\frac{2x_i}{\theta^2}e^{-(\frac{x_i}{\theta})^2})\] \[l(\theta;datos)=2log(2)-2nlog(\theta)+\sum_{i=1}^{n}log(x_i)-\frac{1}{\theta^2}\sum_{i=1}^{n}x_i^2\]

Entonces \[l'(\theta;datos)=-\frac{2n}{\theta} +\frac{2}{\theta^3}\sum_{i=1}^{n}x_i^2=0\] Si \[\frac{2n}{\theta} =\frac{2}{\theta^3}\sum_{i=1}^{n}x_i^2\] \[\frac{n}{\theta} =\frac{1}{\theta^3}\sum_{i=1}^{n}x_i^2\] \[n =\frac{1}{\theta^2}\sum_{i=1}^{n}x_i^2\] \[\theta^2 =\frac{1}{n}\sum_{i=1}^{n}x_i^2\] \[\theta^2 =\frac{1}{n}\sum_{i=1}^{n}x_i^2=M_2\] Entonces \[\hat{\theta}=\sqrt{M_2}\] Es un estimador de \(\theta\) por el método de máxima verosimilitud. Ahora, tenemos que \(\hat{\theta}\) es el estimador de \(\theta\) por el método de máxima verosimilitud, por el principio de invarianza tenemos que \[E[\hat{\theta}]=E[\sqrt{M_2}]=\sqrt{E[M_2]}\] Donde

\[E[M_2]=2\theta^2\] Por lo tanto \[\sqrt{E[M_2]}=\sqrt{2\theta^2}=\sqrt{2}\theta\] Por lo tanto, el estimador no es insesgado.

c)

Ahora, tenemos que la varianza de la distribución viene dada por la expresión \[Var(X)=\theta^2(\Gamma(1+\frac{2}{\alpha})+\Gamma(1+\frac{1}{\alpha})^2)\] \[Var(X)=\theta^2(\Gamma(1+\frac{2}{2})+\Gamma(1+\frac{1}{2})^2)\] \[Var(X)=\theta^2(\Gamma(2)+\Gamma(\frac{3}{2})^2)\] \[Var(X)=\theta^2(1+(\frac{\sqrt{\pi}}{2})^2)\] \[Var(X)=\theta^2(1+\frac{\pi}{4})\] Así, por el paso anterior tenemos que \[\theta^2 =\frac{1}{n}\sum_{i=1}^{n}x_i^2\] \[Var(X)=\theta^2(1+\frac{\pi}{4}) =\frac{(1+\frac{\pi}{4})}{n}\sum_{i=1}^{n}x_i^2\] Así, un estimador de \(Var(X)\) es

\[\hat{Var(X)}=\frac{(1+\frac{\pi}{4})}{n}\sum_{i=1}^{n}x_i^2\] Ahora, tenemos que \[E[\hat{Var(X)}]=E[\frac{(1+\frac{\pi}{4})}{n}\sum_{i=1}^{n}x_i^2]=\frac{(1+\frac{\pi}{4})}{n}E[\sum_{i=1}^{n}x_i^2]=\frac{(1+\frac{\pi}{4})}{n}2n\theta^2=2(1+\frac{\pi}{4})\theta^2=2Var(X)\] Por lo tanto, el estimador no es insesgado.