Método de máxima verosimilitud para distribución normal
El método de máxima verosimilitud es una técnica utilizada para estimar los parámetros de una distribución de probabilidad que mejor se ajustan a un conjunto de datos observados. En el caso de la distribución normal, el objetivo es encontrar los parámetros de la media (μ) y la desviación estándar (σ) que maximizan la verosimilitud de los datos observados.
La función de densidad de probabilidad de una distribución normal es:
\[ f(x | \mu, \sigma) = \frac{1}{\sqrt{2\pi\sigma^2}} e^{-\frac{(x-\mu)^2}{2\sigma^2}} \]
Para encontrar los estimadores de máxima verosimilitud de μ y σ, se maximiza la función de verosimilitud, que es el producto de las densidades de probabilidad de los datos observados. En el caso de la distribución normal, la función de verosimilitud se define como:
\[ L(\mu, \sigma | x_1, x_2, ..., x_n) = \prod_{i=1}^{n} \frac{1}{\sqrt{2\pi\sigma^2}} e^{-\frac{(x_i-\mu)^2}{2\sigma^2}} \]
Para simplificar los cálculos, es común trabajar con el logaritmo de la función de verosimilitud, ya que maximizar el logaritmo es equivalente a maximizar la función de verosimilitud. El logaritmo de la función de verosimilitud para la distribución normal es:
\[ \log L(\mu, \sigma | x_1, x_2, ..., x_n) = -\frac{n}{2} \log(2\pi) - n \log(\sigma) - \frac{1}{2\sigma^2} \sum_{i=1}^{n} (x_i - \mu)^2 \]
Para encontrar los estimadores de máxima verosimilitud de μ y σ, se derivan esta función con respecto a μ y σ, se igualan a cero y se resuelven las ecuaciones resultantes. Los estimadores de máxima verosimilitud para la media y la desviación estándar de una distribución normal son la media muestral y la desviación estándar muestral, respectivamente:
\[ \hat{\mu} = \frac{1}{n} \sum_{i=1}^{n} x_i \]
\[ \hat{\sigma} = \sqrt{\frac{1}{n} \sum_{i=1}^{n} (x_i - \hat{\mu})^2} \]
Estos son los estimadores de máxima verosimilitud para una distribución normal.