Ley máxima de entropia
La ley de máxima entropía es un principio en la teoría de la información que establece que, dadas ciertas restricciones o información parcial sobre un sistema, la distribución de probabilidad que mejor representa la incertidumbre sobre dicho sistema es aquella que maximiza la entropía. En otras palabras, la ley de máxima entropía sugiere que, cuando no se tiene información adicional sobre un sistema, se debe asumir una distribución de probabilidad que sea lo más uniforme posible, es decir, que asigna la misma probabilidad a todas las posibles configuraciones del sistema. Este principio se utiliza en diversos campos como la física, la estadística, la ingeniería y la biología para modelar sistemas complejos y tomar decisiones bajo incertidumbre.