Ejercicio 5.5

Determinar el estimador de máxima verosimilitud del parámetro σ (desviación estándar) para una distribución normal con parámetros μ y σ².

Desarrollo de la Solución

Planteamiento Inicial

Consideremos una variable aleatoria que sigue distribución normal: \[Z \sim \mathcal{N}(\mu, \sigma^2)\]

Su función de densidad está definida como: \[g(z|\mu,\sigma) = \frac{1}{\sqrt{2\pi}\sigma} \cdot e^{-\frac{(z-\mu)^2}{2\sigma^2}}\]

Problema

Disponemos de n observaciones independientes e idénticamente distribuidas: \[Z_1, Z_2, \ldots, Z_n \stackrel{iid}{\sim} \mathcal{N}(\mu, \sigma^2)\]

Construcción de la Verosimilitud

La función de verosimilitud conjunta se expresa como: \[\mathcal{L}(\mu,\sigma|z_1,\ldots,z_n) = \prod_{j=1}^{n} g(z_j|\mu,\sigma)\]

Expandiendo el producto: \[\mathcal{L}(\mu,\sigma) = \prod_{j=1}^{n} \left[\frac{1}{\sqrt{2\pi}\sigma} \cdot e^{-\frac{(z_j-\mu)^2}{2\sigma^2}}\right]\]

Simplificación de la Verosimilitud

Separamos los componentes del producto:

Término constante: \[\prod_{j=1}^{n} \frac{1}{\sqrt{2\pi}\sigma} = \left(\frac{1}{\sqrt{2\pi}\sigma}\right)^n = \frac{1}{(2\pi)^{n/2}\sigma^n}\]

Término exponencial: \[\prod_{j=1}^{n} e^{-\frac{(z_j-\mu)^2}{2\sigma^2}} = \exp\left(-\frac{1}{2\sigma^2}\sum_{j=1}^{n}(z_j-\mu)^2\right)\]

Por tanto: \[\mathcal{L}(\mu,\sigma) = \frac{1}{(2\pi)^{n/2}\sigma^n} \exp\left(-\frac{1}{2\sigma^2}\sum_{j=1}^{n}(z_j-\mu)^2\right)\]

Logaritmo de la Verosimilitud

Aplicamos el logaritmo natural para facilitar la optimización: \[\ln \mathcal{L}(\mu,\sigma) = -\frac{n}{2}\ln(2\pi) - n\ln(\sigma) - \frac{1}{2\sigma^2}\sum_{j=1}^{n}(z_j-\mu)^2\]

Maximización respecto a μ

Calculamos la derivada parcial: \[\frac{\partial \ln \mathcal{L}}{\partial \mu} = \frac{1}{\sigma^2}\sum_{j=1}^{n}(z_j-\mu)\]

Condición de primer orden (CPO): \[\sum_{j=1}^{n}(z_j-\mu) = 0\]

Estimador de μ: \[\widehat{\mu} = \frac{1}{n}\sum_{j=1}^{n}z_j = \overline{z}\]

Maximización respecto a σ

Sustituimos \(\widehat{\mu} = \overline{z}\) en la log-verosimilitud: \[\ln \mathcal{L}(\overline{z},\sigma) = -\frac{n}{2}\ln(2\pi) - n\ln(\sigma) - \frac{1}{2\sigma^2}\sum_{j=1}^{n}(z_j-\overline{z})^2\]

Derivada parcial respecto a σ: \[\frac{\partial \ln \mathcal{L}}{\partial \sigma} = -\frac{n}{\sigma} + \frac{1}{\sigma^3}\sum_{j=1}^{n}(z_j-\overline{z})^2\]

Condición de primer orden: \[-\frac{n}{\sigma} + \frac{1}{\sigma^3}\sum_{j=1}^{n}(z_j-\overline{z})^2 = 0\]

Multiplicando por σ³: \[-n\sigma^2 + \sum_{j=1}^{n}(z_j-\overline{z})^2 = 0\]

Estimador de σ²: \[\widehat{\sigma^2} = \frac{1}{n}\sum_{j=1}^{n}(z_j-\overline{z})^2\]

Estimador de σ: \[\widehat{\sigma} = \sqrt{\frac{1}{n}\sum_{j=1}^{n}(z_j-\overline{z})^2}\]


Conclusión

Los estimadores de máxima verosimilitud son:

\[\boxed{\widehat{\mu} = \overline{z}, \quad \widehat{\sigma^2} = \frac{1}{n}\sum_{j=1}^{n}(z_j-\overline{z})^2, \quad \widehat{\sigma} = \sqrt{\frac{1}{n}\sum_{j=1}^{n}(z_j-\overline{z})^2}}\]