Sea \(X_1, X_2, \dots, X_n \sim
\mathcal{N}(\mu,\sigma^2)\) independientes y con distribucion
normal.
La función de densidad de probabilidad de una observación es:
\[ f(x_i;\mu,\sigma^2) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x_i-\mu)^2}{2\sigma^2}\right) \]
Por ser independiente, la función de verosimilitud de toda la muestra es:
\[ L(\mu,\sigma^2) = \prod_{i=1}^n \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x_i-\mu)^2}{2\sigma^2}\right) \]
\[ \ell(\mu,\sigma^2) = \ln L(\mu,\sigma^2) = \sum_{i=1}^n \ln \left( \frac{1}{\sqrt{2\pi\sigma^2}} e^{-\frac{(x_i-\mu)^2}{2\sigma^2}} \right) \]
Paso 2: separamos por propiedad los dos logaritmos
\[ \ell(\mu,\sigma^2) = \sum_{i=1}^n \Bigg[ \ln\Big(\tfrac{1}{\sqrt{2\pi\sigma^2}}\Big) + \ln\Big(e^{-\frac{(x_i-\mu)^2}{2\sigma^2}}\Big) \Bigg] \]
Simplificamos cada termino
\[ \ln\Big(\tfrac{1}{\sqrt{2\pi\sigma^2}}\Big) = -\tfrac{1}{2}\ln(2\pi\sigma^2) \]
\[ \ln\Big(e^{-\frac{(x_i-\mu)^2}{2\sigma^2}}\Big) = -\frac{(x_i-\mu)^2}{2\sigma^2} \]
Paso 4: sustituimos dentro de la suma
\[ \ell(\mu,\sigma^2) = \sum_{i=1}^n \left[ -\tfrac{1}{2}\ln(2\pi\sigma^2) - \frac{(x_i-\mu)^2}{2\sigma^2} \right] \]
Luego factorizamos
\[ \ell(\mu,\sigma^2) = -\frac{n}{2}\ln(2\pi\sigma^2) - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2 \]
Paso 6: separar el logaritmo
\[ \ell(\mu,\sigma^2) = -\frac{n}{2}\ln(2\pi) - \frac{n}{2}\ln(\sigma^2) - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2 \]
\[ \ell(\mu,\sigma^2) = -\frac{n}{2}\ln(2\pi) - \frac{n}{2}\ln(\sigma^2) - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2 \]
Derivamos \(\ell\) respecto a \(\mu\): \[ \frac{\partial}{\partial\mu}\ell(\mu,\sigma^2) = \frac{1}{\sigma^2}\sum_{i=1}^n (x_i-\mu). \] Igualando a cero: \[ \sum_{i=1}^n (x_i-\mu)=0 \quad\Longrightarrow\quad \hat\mu_{\text{MLE}}=\bar{x}=\frac{1}{n}\sum_{i=1}^n x_i. \] El MLE de \(\mu\) es \(\bar{x}\) (media muestral).
Sustituimos \(\mu=\bar{x}\) (o derivamos simultáneamente). La log-verosimilitud relevante es \[ \ell(\bar{x},\sigma^2)= -\frac{n}{2}\ln(\sigma^2) - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\bar{x})^2 + \text{constantes}. \] Derivando respecto a \(\sigma^2\): \[ \frac{\partial}{\partial\sigma^2}\ell(\bar{x},\sigma^2) = -\frac{n}{2\sigma^2} + \frac{1}{2(\sigma^2)^2}\sum_{i=1}^n (x_i-\bar{x})^2. \] Igualando a cero y resolviendo, tenemos: \[ -\frac{n}{2\sigma^2} + \frac{1}{2(\sigma^2)^2}\sum_{i=1}^n (x_i-\bar{x})^2 = 0 \quad\Longrightarrow\quad \hat\sigma^2_{\text{MLE}} = \frac{1}{n}\sum_{i=1}^n (x_i-\bar{x})^2. \]
El estimador de la desviión estándar es la raíz positiva: \[ \boxed{\,\hat\sigma_{\text{MLE}} = \sqrt{\hat\sigma^2_{\text{MLE}}} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\bar{x})^2}\, }. \]
Segunda derivada respecto a \(\sigma^2\): \[ \frac{\partial^2}{\partial(\sigma^2)^2}\ell(\bar{x},\sigma^2) = \frac{n}{2(\sigma^2)^2} - \frac{\sum_{i=1}^n (x_i-\bar{x})^2}{(\sigma^2)^3}. \] Evaluando en \(\sigma^2=\hat\sigma^2_{\text{MLE}}=\frac{1}{n}\sum (x_i-\bar{x})^2\) da \[ \frac{\partial^2}{\partial(\sigma^2)^2}\ell\Big|_{\hat\sigma^2} = -\frac{n}{2(\hat\sigma^2)^2} < 0, \] Entonces es máximo.
El estimador de máxima verosimilitud para el parámetro de
localización es
\[
\hat{\mu}_{\text{MLE}} = \bar{x},
\] es decir, la media muestral.
El estimador de máxima verosimilitud para la desviación estándar
es
\[
\hat{\sigma}_{\text{MLE}} = \sqrt{\frac{1}{n}\sum_{i=1}^n
(x_i-\bar{x})^2}.
\]