Determinar el estimador de máxima verosimilitud del parámetro σ (desviación estándar) para una distribución normal con parámetros μ y σ².
Consideremos una variable aleatoria que sigue distribución normal: \[Z \sim \mathcal{N}(\mu, \sigma^2)\]
Su función de densidad está definida como: \[g(z|\mu,\sigma) = \frac{1}{\sqrt{2\pi}\sigma} \cdot e^{-\frac{(z-\mu)^2}{2\sigma^2}}\]
Disponemos de n observaciones independientes e idénticamente distribuidas: \[Z_1, Z_2, \ldots, Z_n \stackrel{iid}{\sim} \mathcal{N}(\mu, \sigma^2)\]
La función de verosimilitud conjunta se expresa como: \[\mathcal{L}(\mu,\sigma|z_1,\ldots,z_n) = \prod_{j=1}^{n} g(z_j|\mu,\sigma)\]
Expandiendo el producto: \[\mathcal{L}(\mu,\sigma) = \prod_{j=1}^{n} \left[\frac{1}{\sqrt{2\pi}\sigma} \cdot e^{-\frac{(z_j-\mu)^2}{2\sigma^2}}\right]\]
Separamos los componentes del producto:
Término constante: \[\prod_{j=1}^{n} \frac{1}{\sqrt{2\pi}\sigma} = \left(\frac{1}{\sqrt{2\pi}\sigma}\right)^n = \frac{1}{(2\pi)^{n/2}\sigma^n}\]
Término exponencial: \[\prod_{j=1}^{n} e^{-\frac{(z_j-\mu)^2}{2\sigma^2}} = \exp\left(-\frac{1}{2\sigma^2}\sum_{j=1}^{n}(z_j-\mu)^2\right)\]
Por tanto: \[\mathcal{L}(\mu,\sigma) = \frac{1}{(2\pi)^{n/2}\sigma^n} \exp\left(-\frac{1}{2\sigma^2}\sum_{j=1}^{n}(z_j-\mu)^2\right)\]
Aplicamos el logaritmo natural para facilitar la optimización: \[\ln \mathcal{L}(\mu,\sigma) = -\frac{n}{2}\ln(2\pi) - n\ln(\sigma) - \frac{1}{2\sigma^2}\sum_{j=1}^{n}(z_j-\mu)^2\]
Calculamos la derivada parcial: \[\frac{\partial \ln \mathcal{L}}{\partial \mu} = \frac{1}{\sigma^2}\sum_{j=1}^{n}(z_j-\mu)\]
Condición de primer orden (CPO): \[\sum_{j=1}^{n}(z_j-\mu) = 0\]
Estimador de μ: \[\widehat{\mu} = \frac{1}{n}\sum_{j=1}^{n}z_j = \overline{z}\]
Sustituimos \(\widehat{\mu} = \overline{z}\) en la log-verosimilitud: \[\ln \mathcal{L}(\overline{z},\sigma) = -\frac{n}{2}\ln(2\pi) - n\ln(\sigma) - \frac{1}{2\sigma^2}\sum_{j=1}^{n}(z_j-\overline{z})^2\]
Derivada parcial respecto a σ: \[\frac{\partial \ln \mathcal{L}}{\partial \sigma} = -\frac{n}{\sigma} + \frac{1}{\sigma^3}\sum_{j=1}^{n}(z_j-\overline{z})^2\]
Condición de primer orden: \[-\frac{n}{\sigma} + \frac{1}{\sigma^3}\sum_{j=1}^{n}(z_j-\overline{z})^2 = 0\]
Multiplicando por σ³: \[-n\sigma^2 + \sum_{j=1}^{n}(z_j-\overline{z})^2 = 0\]
Estimador de σ²: \[\widehat{\sigma^2} = \frac{1}{n}\sum_{j=1}^{n}(z_j-\overline{z})^2\]
Estimador de σ: \[\widehat{\sigma} = \sqrt{\frac{1}{n}\sum_{j=1}^{n}(z_j-\overline{z})^2}\]
Los estimadores de máxima verosimilitud son:
\[\boxed{\widehat{\mu} = \overline{z}, \quad \widehat{\sigma^2} = \frac{1}{n}\sum_{j=1}^{n}(z_j-\overline{z})^2, \quad \widehat{\sigma} = \sqrt{\frac{1}{n}\sum_{j=1}^{n}(z_j-\overline{z})^2}}\]