Planteamiento

Encuéntrese el estimador de máxima verosimilitud de la desviación \(\sigma\) para el caso de la distribución normal con parámetros \(\mu\) y \(\sigma^2\).

1. Muestra

Sea una muestra aleatoria independiente:

\[ x_1, x_2, \ldots, x_n. \]

2. Función de densidad conjunta

La densidad de una observación es:

\[ f(x_i \mid \mu,\sigma) = \frac{1}{\sqrt{2\pi}\,\sigma} \; e^{-\frac{(x_i-\mu)^2}{2\sigma^2}}. \]

Por independencia, la densidad conjunta es:

\[ f(\mathbf{x}\mid \mu,\sigma) = (2\pi)^{-n/2}\,\sigma^{-n}\; e^{-\frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2}. \]

3. Función de verosimilitud

La verosimilitud está dada por:

\[ L(\mu,\sigma) = f(\mathbf{x}\mid \mu,\sigma). \]

Es usual trabajar con el logaritmo de la verosimilitud:

\[ \ell(\mu,\sigma) = \log L = -\frac{n}{2}\log(2\pi) - n\log\sigma - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2. \]

4. Estimadores MLE

Caso A: \(\mu\) desconocida

  1. Derivamos respecto a \(\mu\):

\[ \frac{\partial \ell}{\partial \mu} = \frac{1}{\sigma^2}\sum_{i=1}^n(x_i-\mu)=0 \;\;\Rightarrow\;\; \widehat{\mu} = \bar X = \frac{1}{n}\sum_{i=1}^n x_i. \]

  1. Sustituimos \(\widehat{\mu}\) y derivamos respecto a \(\sigma\):

\[ \frac{\partial \ell}{\partial \sigma} = -\frac{n}{\sigma} + \frac{1}{\sigma^3}\sum_{i=1}^n(x_i-\bar X)^2 = 0. \]

De aquí resulta:

\[ \widehat{\sigma}^2 = \frac{1}{n}\sum_{i=1}^n (x_i - \bar X)^2. \]

Es decir:

\[ \boxed{\;\widehat{\sigma} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\bar X)^2}\;} \]


Caso B: \(\mu\) conocida

Si \(\mu\) es conocida, entonces:

\[ \widehat{\sigma}^2 = \frac{1}{n}\sum_{i=1}^n (x_i-\mu)^2, \qquad \widehat{\sigma} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\mu)^2}. \]