Planteamos la funcion de verosimilitud

Sea \(X_1, X_2, \dots, X_n \sim \mathcal{N}(\mu,\sigma^2)\) independientes y con distribucion normal.
La función de densidad de probabilidad de una observación es:

\[ f(x_i;\mu,\sigma^2) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x_i-\mu)^2}{2\sigma^2}\right) \]

Por ser independiente, la función de verosimilitud de toda la muestra es:

\[ L(\mu,\sigma^2) = \prod_{i=1}^n \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(x_i-\mu)^2}{2\sigma^2}\right) \]


Aplicamos logaritmo natural a la funcion de verosimilitud

\[ \ell(\mu,\sigma^2) = \ln L(\mu,\sigma^2) = \sum_{i=1}^n \ln \left( \frac{1}{\sqrt{2\pi\sigma^2}} e^{-\frac{(x_i-\mu)^2}{2\sigma^2}} \right) \]


Paso 2: separamos por propiedad los dos logaritmos

\[ \ell(\mu,\sigma^2) = \sum_{i=1}^n \Bigg[ \ln\Big(\tfrac{1}{\sqrt{2\pi\sigma^2}}\Big) + \ln\Big(e^{-\frac{(x_i-\mu)^2}{2\sigma^2}}\Big) \Bigg] \]


Simplificamos cada termino

\[ \ln\Big(\tfrac{1}{\sqrt{2\pi\sigma^2}}\Big) = -\tfrac{1}{2}\ln(2\pi\sigma^2) \]

\[ \ln\Big(e^{-\frac{(x_i-\mu)^2}{2\sigma^2}}\Big) = -\frac{(x_i-\mu)^2}{2\sigma^2} \]


Paso 4: sustituimos dentro de la suma

\[ \ell(\mu,\sigma^2) = \sum_{i=1}^n \left[ -\tfrac{1}{2}\ln(2\pi\sigma^2) - \frac{(x_i-\mu)^2}{2\sigma^2} \right] \]


Luego factorizamos

\[ \ell(\mu,\sigma^2) = -\frac{n}{2}\ln(2\pi\sigma^2) - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2 \]


Paso 6: separar el logaritmo

\[ \ell(\mu,\sigma^2) = -\frac{n}{2}\ln(2\pi) - \frac{n}{2}\ln(\sigma^2) - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2 \]


La log-verosimilitud simplificada es:

\[ \ell(\mu,\sigma^2) = -\frac{n}{2}\ln(2\pi) - \frac{n}{2}\ln(\sigma^2) - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2 \]

Derivamos parcialmente respecto a \(\mu\)\(\hat\mu_{\text{MLE}}\) para hallar su maximo.

Derivamos \(\ell\) respecto a \(\mu\): \[ \frac{\partial}{\partial\mu}\ell(\mu,\sigma^2) = \frac{1}{\sigma^2}\sum_{i=1}^n (x_i-\mu). \] Igualando a cero: \[ \sum_{i=1}^n (x_i-\mu)=0 \quad\Longrightarrow\quad \hat\mu_{\text{MLE}}=\bar{x}=\frac{1}{n}\sum_{i=1}^n x_i. \] El MLE de \(\mu\) es \(\bar{x}\) (media muestral).

Derivamos parcialmente respecto a \(\sigma^2\) (vía \(\sigma^2\)) → \(\hat\sigma^2_{\text{MLE}}\) para hallar su maximo

Sustituimos \(\mu=\bar{x}\) (o derivamos simultáneamente). La log-verosimilitud relevante es \[ \ell(\bar{x},\sigma^2)= -\frac{n}{2}\ln(\sigma^2) - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\bar{x})^2 + \text{constantes}. \] Derivando respecto a \(\sigma^2\): \[ \frac{\partial}{\partial\sigma^2}\ell(\bar{x},\sigma^2) = -\frac{n}{2\sigma^2} + \frac{1}{2(\sigma^2)^2}\sum_{i=1}^n (x_i-\bar{x})^2. \] Igualando a cero y resolviendo, tenemos: \[ -\frac{n}{2\sigma^2} + \frac{1}{2(\sigma^2)^2}\sum_{i=1}^n (x_i-\bar{x})^2 = 0 \quad\Longrightarrow\quad \hat\sigma^2_{\text{MLE}} = \frac{1}{n}\sum_{i=1}^n (x_i-\bar{x})^2. \]

Estimamos la desviacion \(\sigma\)

El estimador de la desviión estándar es la raíz positiva: \[ \boxed{\,\hat\sigma_{\text{MLE}} = \sqrt{\hat\sigma^2_{\text{MLE}}} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\bar{x})^2}\, }. \]

Comprobamos máximos

Segunda derivada respecto a \(\sigma^2\): \[ \frac{\partial^2}{\partial(\sigma^2)^2}\ell(\bar{x},\sigma^2) = \frac{n}{2(\sigma^2)^2} - \frac{\sum_{i=1}^n (x_i-\bar{x})^2}{(\sigma^2)^3}. \] Evaluando en \(\sigma^2=\hat\sigma^2_{\text{MLE}}=\frac{1}{n}\sum (x_i-\bar{x})^2\) da \[ \frac{\partial^2}{\partial(\sigma^2)^2}\ell\Big|_{\hat\sigma^2} = -\frac{n}{2(\hat\sigma^2)^2} < 0, \] Entonces es máximo.

El estimador de máxima verosimilitud para el parámetro de localización es
\[ \hat{\mu}_{\text{MLE}} = \bar{x}, \] es decir, la media muestral.

El estimador de máxima verosimilitud para la desviación estándar es
\[ \hat{\sigma}_{\text{MLE}} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\bar{x})^2}. \]