Ejercicios resueltos máxima verosimilitud
La estimación por máxima verosimilitud es un método utilizado para encontrar los parámetros de un modelo estadístico que maximizan la probabilidad de observar los datos que se han recopilado. A continuación, te mostraré un ejemplo de cómo se puede aplicar la máxima verosimilitud para estimar los parámetros de una distribución normal.
Supongamos que tenemos una muestra de datos \( x_1, x_2, ..., x_n \) que se distribuyen de acuerdo a una distribución normal con media \( \mu \) y varianza \( \sigma^2 \). La función de densidad de probabilidad de una distribución normal es:
\[ f(x|\mu, \sigma^2) = \frac{1}{\sqrt{2\pi\sigma^2}} e^{-\frac{(x-\mu)^2}{2\sigma^2}} \]
La función de verosimilitud para esta distribución es el producto de las densidades de probabilidad de cada observación en la muestra:
\[ L(\mu, \sigma^2 | x_1, x_2, ..., x_n) = \prod_{i=1}^{n} \frac{1}{\sqrt{2\pi\sigma^2}} e^{-\frac{(x_i-\mu)^2}{2\sigma^2}} \]
Para encontrar los estimadores de máxima verosimilitud de \( \mu \) y \( \sigma^2 \), se debe maximizar la función de verosimilitud. En muchos casos, es más conveniente maximizar el logaritmo de la función de verosimilitud, ya que simplifica los cálculos y no afecta la ubicación de los máximos. Por lo tanto, se puede maximizar la log-verosimilitud:
\[ \ell(\mu, \sigma^2 | x_1, x_2, ..., x_n) = \sum_{i=1}^{n} \left( -\frac{1}{2} \log(2\pi\sigma^2) - \frac{(x_i-\mu)^2}{2\sigma^2} \right) \]
Derivando esta función con respecto a \( \mu \) y \( \sigma^2 \) e igualando a cero, se pueden encontrar los estimadores de máxima verosimilitud de los parámetros.
Es importante tener en cuenta que este es solo un ejemplo para la distribución normal. La estimación por máxima verosimilitud se puede aplicar a una amplia variedad de distribuciones y modelos estadísticos.