Encuéntrese el estimador de máxima verosimilitud de la media \(\mu\) y de la desviación estándar \(\sigma\) para el caso de la distribución normal con parámetros \(\mu\) y \(\sigma^2\).
Sea \(X \sim N(\mu,
\sigma^2)\).
La función de densidad de probabilidad es: \[
f(x; \mu, \sigma^2) \;=\; \frac{1}{\sqrt{2\pi\sigma^2}}
\exp\!\left(-\frac{(x-\mu)^2}{2\sigma^2}\right).
\]
Para una muestra aleatoria independiente de tamaño \(n\): \[ X_1, X_2, \ldots, X_n \stackrel{iid}{\sim} N(\mu, \sigma^2). \]
La función de verosimilitud es el producto de las densidades: \[ L(\mu,\sigma^2) = \prod_{i=1}^{n} f(x_i; \mu,\sigma^2) = \prod_{i=1}^{n} \frac{1}{\sqrt{2\pi\sigma^2}} \exp\!\left(-\frac{(x_i-\mu)^2}{2\sigma^2}\right). \]
Tomamos logaritmo natural para simplificar productos en sumas: \[ \ell(\mu,\sigma^2) \;=\; \ln L(\mu,\sigma^2) = \sum_{i=1}^{n} \left\{ -\tfrac{1}{2}\ln(2\pi\sigma^2) - \frac{(x_i-\mu)^2}{2\sigma^2} \right\}. \]
Separamos términos constantes y dependientes de parámetros: \[ \ell(\mu,\sigma^2) = -\frac{n}{2}\ln(2\pi) \;-\; \frac{n}{2}\ln(\sigma^2) \;-\; \frac{1}{2\sigma^2}\sum_{i=1}^{n}(x_i-\mu)^2. \]
Definimos \(S(\mu) \equiv \sum_{i=1}^{n}(x_i-\mu)^2\) para aligerar la notación.
Derivamos \(\ell\) respecto a \(\mu\):
Por tanto, \[ \frac{\partial \ell}{\partial \mu} = \frac{1}{\sigma^2}\sum_{i=1}^n (x_i-\mu). \]
Igualamos a cero (ecuación de score): \[ \sum_{i=1}^n (x_i-\mu) = 0 \;\Rightarrow\; n\bar X - n\mu = 0 \;\Rightarrow\; \hat\mu = \bar X \equiv \frac{1}{n}\sum_{i=1}^n x_i. \]
Comprobación de máximo (segunda derivada): \[ \frac{\partial^2 \ell}{\partial \mu^2} = \frac{1}{\sigma^2}\sum_{i=1}^n \frac{\partial}{\partial \mu}(x_i-\mu) = \frac{1}{\sigma^2}\sum_{i=1}^n (-1) = -\frac{n}{\sigma^2} < 0, \] por lo tanto \(\hat\mu=\bar X\) maximiza \(\ell\).
Sustituimos \(\mu=\bar X\) en la log-verosimilitud (opcional para claridad; el resultado coincide si se deriva con \(\mu\) libre y luego se sustituye): \[ \ell(\bar X,\sigma^2) = -\frac{n}{2}\ln(2\pi) - \frac{n}{2}\ln(\sigma^2) - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\bar X)^2. \]
Derivamos respecto a \(\sigma^2\):
\(\displaystyle \frac{\partial}{\partial \sigma^2}\Big[-\frac{n}{2}\ln(\sigma^2)\Big] = -\frac{n}{2}\cdot \frac{1}{\sigma^2}\).
\(\displaystyle \frac{\partial}{\partial \sigma^2}\Big[-\frac{1}{2\sigma^2} S(\bar X)\Big] = -\Big(-\frac{1}{2}\Big)\cdot \frac{1}{(\sigma^2)^2}S(\bar X) = \frac{1}{2}\frac{S(\bar X)}{(\sigma^2)^2}\), pues \(S(\bar X)\) no depende de \(\sigma^2\).
Así, \[ \frac{\partial \ell}{\partial \sigma^2} = -\frac{n}{2}\frac{1}{\sigma^2} + \frac{1}{2}\frac{S(\bar X)}{(\sigma^2)^2}. \]
Ecuación de score (igualando a cero) y despeje:
\[ -\frac{n}{2}\frac{1}{\sigma^2} + \frac{1}{2}\frac{S(\bar X)}{(\sigma^2)^2} = 0 \;\Longrightarrow\; -\frac{n}{\sigma^2} + \frac{S(\bar X)}{(\sigma^2)^2} = 0 \]
Multiplicando por \((\sigma^2)^2\): \[ -n\,\sigma^2 + S(\bar X) = 0 \;\Longrightarrow\; \hat\sigma^2 = \frac{S(\bar X)}{n} = \frac{1}{n}\sum_{i=1}^n (x_i-\bar X)^2. \]
Comprobación de máximo (segunda derivada):
Primero, \[ \frac{\partial^2 \ell}{\partial (\sigma^2)^2} = \frac{n}{2}\frac{1}{(\sigma^2)^2} - \frac{S(\bar X)}{(\sigma^2)^3}. \] Evaluando en \(\hat\sigma^2 = S(\bar X)/n\): \[ \left.\frac{\partial^2 \ell}{\partial (\sigma^2)^2}\right|_{\hat\sigma^2} = \frac{n}{2}\frac{1}{\hat\sigma^4} - \frac{S(\bar X)}{\hat\sigma^6} = \frac{n}{2}\frac{1}{\hat\sigma^4} - \frac{n\hat\sigma^2}{\hat\sigma^6} = \frac{n}{2}\frac{1}{\hat\sigma^4} - \frac{n}{\hat\sigma^4} = -\frac{n}{2}\frac{1}{\hat\sigma^4} < 0. \] Luego \(\hat\sigma^2\) también maximiza \(\ell\).
Finalmente, \[ \hat\sigma = \sqrt{\hat\sigma^2} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\bar X)^2}. \]
\[ \boxed{ \hat{\mu} = \bar{X}, \quad \hat{\sigma}^2 = \frac{1}{n}\sum_{i=1}^n (x_i-\bar{X})^2, \quad \hat{\sigma} = \sqrt{\frac{1}{n}\sum_{i=1}^n (x_i-\bar{X})^2} } \]