Máxima de shannon
La entropía máxima de Shannon es un concepto en teoría de la información que se refiere al valor máximo de incertidumbre o desorden en un sistema. Se calcula utilizando la fórmula de entropía de Shannon, que se expresa como:
H(X) = - Σ p(x) * log2(p(x))
Donde:
- H(X) es la entropía de Shannon del sistema X.
- p(x) es la probabilidad de ocurrencia de cada posible estado x en el sistema.
- log2 representa el logaritmo en base 2.
La entropía máxima de Shannon se alcanza cuando todos los posibles estados del sistema tienen la misma probabilidad de ocurrencia, lo que significa que no hay patrón discernible o información útil en el sistema. En este caso, la entropía máxima se calcula como el logaritmo en base 2 del número total de posibles estados del sistema.