Encuéntrese el estimador de máxima verosimilitud de la desviación \(\sigma\) para el caso de la distribución normal con parámetros \(\mu\) y \(\sigma^2\).
Si \(X \sim N(\mu, \sigma^2)\), entonces la función de densidad de probabilidad es
\[ f(x;\mu,\sigma^2) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\!\left(-\frac{(x-\mu)^2}{2\sigma^2}\right) \]
Supongamos que tenemos una muestra aleatoria independiente y con misma distribución normal:
\[ X_1, X_2, \ldots, X_n \sim N(\mu, \sigma^2) \]
La función de verosimilitud es la siguiente:
\[ L(\mu, \sigma^2) = \prod_{i=1}^n f(x_i;\mu,\sigma^2) \]
Sustituyendo \(f(x_i;\mu,\sigma^2)\):
\[ L(\mu, \sigma^2) = \prod_{i=1}^n \frac{1}{\sqrt{2\pi\sigma^2}} \exp\!\left(-\frac{(x_i-\mu)^2}{2\sigma^2}\right) \]
El producto tiene dos partes:
Un factor constante repetido \(n\) veces: \[ \prod_{i=1}^n \frac{1}{\sqrt{2\pi\sigma^2}} = \left(\frac{1}{\sqrt{2\pi\sigma^2}}\right)^n \]
Un producto de exponenciales: \[ \prod_{i=1}^n \exp\!\left(-\frac{(x_i-\mu)^2}{2\sigma^2}\right) =\exp\!\left(-\frac{1}{2\sigma^2} \sum_{i=1}^n (x_i - \mu)^2\right) \]
Gracias a lo anterior, la función de verosimilitud es la siguiente:
\[ L(\mu, \sigma^2) = \left(\frac{1}{\sqrt{2\pi\sigma^2}}\right)^n \exp\!\left(-\frac{1}{2\sigma^2} \sum_{i=1}^n (x_i-\mu)^2\right) \]
\[ \ell(\mu,\sigma^2) = \ln L(\mu,\sigma^2)= \ln \left( \left(\frac{1}{\sqrt{2\pi\sigma^2}}\right)^n \exp\!\left(-\frac{1}{2\sigma^2} \sum_{i=1}^n (x_i-\mu)^2\right) \right) \]
\[ = n \ln\!\left(\frac{1}{\sqrt{2\pi\sigma^2}}\right) \;-\; \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2 \]
\[ = -\frac{n}{2}\ln(2\pi\sigma^2) \;-\; \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2 \]
\[ = -\frac{n}{2}\ln(2\pi) - \frac{n}{2}\ln(\sigma^2) - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2 \]
\[ \frac{\partial \ell}{\partial \mu} = \frac{1}{\sigma^2}\sum_{i=1}^n (x_i-\mu) \]
Igualamos a cero:
\[ \sum_{i=1}^n (x_i-\mu) = 0 \quad \Rightarrow \quad \hat{\mu} = \bar{X} \]
Sustituyendo \(\hat{\mu} = \bar{X}\) en la log-verosimilitud:
\[ \ell(\bar{X},\sigma^2) = -\frac{n}{2}\ln(2\pi) - \frac{n}{2}\ln(\sigma^2) - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\bar{X})^2 \]
Derivamos respecto a \(\sigma^2\):
\[ \frac{\partial \ell}{\partial \sigma^2} = -\frac{n}{2\sigma^2} + \frac{1}{2(\sigma^2)^2}\sum_{i=1}^n (x_i-\bar{X})^2 \]
Igualamos a cero:
\[ -n\sigma^2 + \sum_{i=1}^n (x_i-\bar{X})^2 = 0, \]
\[ \hat{\sigma}^2 = \frac{1}{n}\sum_{i=1}^n (x_i-\bar{X})^2 \]
Finalmente:
\[ \hat{\sigma} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\bar{X})^2}. \]
\[ \hat{\mu} = \bar{X}, \quad \hat{\sigma}^2 = \frac{1}{n}\sum_{i=1}^n (x_i-\bar{X})^2, \quad \hat{\sigma} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\bar{X})^2}. \]