Encuéntrese el estimador de máxima verosimilitud de la desviación \(\sigma\) para el caso de la distribución normal con parámetros \(\mu\) y \(\sigma^2\).
Sea una muestra aleatoria independiente:
\[ x_1, x_2, \ldots, x_n. \]
La densidad de una observación es:
\[ f(x_i \mid \mu,\sigma) = \frac{1}{\sqrt{2\pi}\,\sigma} \; e^{-\frac{(x_i-\mu)^2}{2\sigma^2}}. \]
Por independencia, la densidad conjunta es:
\[ f(\mathbf{x}\mid \mu,\sigma) = (2\pi)^{-n/2}\,\sigma^{-n}\; e^{-\frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2}. \]
La verosimilitud está dada por:
\[ L(\mu,\sigma) = f(\mathbf{x}\mid \mu,\sigma). \]
Es usual trabajar con el logaritmo de la verosimilitud:
\[ \ell(\mu,\sigma) = \log L = -\frac{n}{2}\log(2\pi) - n\log\sigma - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2. \]
\[ \frac{\partial \ell}{\partial \mu} = \frac{1}{\sigma^2}\sum_{i=1}^n(x_i-\mu)=0 \;\;\Rightarrow\;\; \widehat{\mu} = \bar X = \frac{1}{n}\sum_{i=1}^n x_i. \]
\[ \frac{\partial \ell}{\partial \sigma} = -\frac{n}{\sigma} + \frac{1}{\sigma^3}\sum_{i=1}^n(x_i-\bar X)^2 = 0. \]
De aquí resulta:
\[ \widehat{\sigma}^2 = \frac{1}{n}\sum_{i=1}^n (x_i - \bar X)^2. \]
Es decir:
\[ \boxed{\;\widehat{\sigma} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\bar X)^2}\;} \]
Si \(\mu\) es conocida, entonces:
\[ \widehat{\sigma}^2 = \frac{1}{n}\sum_{i=1}^n (x_i-\mu)^2, \qquad \widehat{\sigma} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\mu)^2}. \]