9.6: Entropía máxima, restricción única
- Page ID
- 82198
Supongamos que se conoce el valor promedio de alguna cantidad con valores\(g(A_i)\) asociados a los diversos eventos\(A_i\); llámenlo\(\widetilde{G}\) (esta es la restricción). Así hay dos ecuaciones, una de las cuales proviene de la restricción y la otra del hecho de que las probabilidades suman 1:
\(1 = \displaystyle \sum_{i} p(A_i) \tag{9.8}\)
\(\widetilde{G} = \displaystyle \sum_{i} p(A_i)g(A_i) \tag{9.9}\)
donde\(\widetilde{G}\) no puede ser menor que el más pequeño\(g(A_i)\) o mayor que el más grande\(g(A_i)\).
La entropía asociada a esta distribución de probabilidad es
\(S = \displaystyle \sum_{i} p(A_i) \log_2 \Big(\dfrac{1}{p(A_i)}\Big) \tag{9.10}\)
cuando se expresa en bits. En la derivación a continuación se utilizará esta fórmula para la entropía. Funciona bien para ejemplos con un pequeño número de estados. En capítulos posteriores de estas notas comenzaremos a utilizar la expresión más común para la entropía en sistemas físicos, expresada en Julios por Kelvin,
\(S = k_B \displaystyle \sum_{i} p(A_i) \ln \Big(\dfrac{1}{p(A_i)}\Big) \tag{9.11}\)