6.20: Entropía
( \newcommand{\kernel}{\mathrm{null}\,}\)
- Shannon mostró el poder de los modelos probabilísticos para señales de valor simbólico. La cantidad dey que caracteriza tal señal es la entropía de su alfabeto.
La teoría de la comunicación se ha formulado mejor para señales de valor simbólico. Claude Shannon publicó en 1948 La teoría matemática de la comunicación, que se convirtió en la piedra angular de la comunicación digital. Mostró el poder de los modelos probabilísticos para señales de valor simbólico, lo que le permitió cuantificar la información presente en una señal. En el modelo de señal más simple, cada símbolo puede ocurrir en el índice n con una probabilidad Pr [a k], k= {1,... , K}. Lo que dice este modelo es que por cada valor de señal se voltea una moneda de K lados (tenga en cuenta que la moneda no necesita ser justa). Para que este modelo tenga sentido, las probabilidades deben ser números entre cero y uno y deben sumar a uno.
0≤Pr[ak]≤1
K∑k=1Pr[ak]=1
Este modelo de volteo de monedas supone que los símbolos ocurren sin tener en cuenta cuáles fueron los símbolos anteriores o sucesivos, una suposición falsa para el texto mecanografiado. A pesar de la sobresimplicidad de este modelo probabilístico, las ideas que desarrollamos aquí también funcionan cuando se utilizan modelos más precisos, pero aún probabilísticos. La cantidad clave que caracteriza a una señal de valor simbólico es la entropía de su alfabeto.
H(A)=−∑kKPr[ak]log2Pr[ak]
Debido a que usamos el logaritmo de base 2, la entropía tiene unidades de bits. Para que esta definición tenga sentido, debemos tomar nota especial de los símbolos que tienen probabilidad cero de ocurrir. Un símbolo de probabilidad cero nunca ocurre; así, definimos
0log20=0
para que tales símbolos no afecten a la entropía. El valor máximo alcanzable por la entropía de un alfabeto ocurre cuando los símbolos son igualmente probables
Pr[ak]=Pr[al]
En este caso, la entropía equivale a log 2 K. El valor mínimo ocurre cuando solo se produce un símbolo; tiene probabilidad de que ocurra uno y el resto tiene probabilidad cero.
Derivar los resultados de máxima entropía, tanto el aspecto numérico (entropía equivale a log 2 K) como el teórico (los símbolos igualmente probables maximizan la entropía). Derivar el valor del alfabeto mínimo de entropía.
Solución
Los símbolos igualmente probables tienen cada uno una probabilidad de 1/K. Por lo tanto,
H(A)=−∑kK1Klog21K=log2K
Para demostrar que esta es la asignación de probabilidad de máxima entropía, debemos tomar explícitamente en cuenta que las probabilidades suman a uno. Enfócate en un símbolo en particular, digamos el primero. Pr [a 0] aparece dos veces en la fórmula de entropía: los términos
Pr[a0]log2Pr[a0]and(1−Pr[a0]+...+Pr[aK−2])log2(1−Pr[a0]+...+Pr[aK−2])
La derivada con respecto a esta probabilidad (y todas las demás) debe ser cero. La derivada es igual a
log2Pr[a0]−log2(1−Pr[a0]+...+Pr[aK−2])
y todos los demás derivados tienen la misma forma (solo sustituya el índice de su letra). Así, cada probabilidad debe ser igual a las demás, y estamos hechos. Para la respuesta mínima de entropía, un término es
1log21=0
y los demás son
0log20
que definimos como cero también. El valor mínimo de entropía es cero.
Un alfabeto de cuatro símbolos tiene las siguientes probabilidades.
Pr[a0]=12
Pr[a1]=14
Pr[a2]=18
Pr[a3]=18
Tenga en cuenta que estas probabilidades suman a uno como deberían. Como
12=2−1,log212=−1
La entropía de este alfabeto equivale a
H(A)=−(12log212+14log214+18log218+18log218)
H(A)=−(12−1+14−2+18−3+18−3)
H(A)=1.75bits