Loading [MathJax]/jax/output/HTML-CSS/jax.js
Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

6.20: Entropía

( \newcommand{\kernel}{\mathrm{null}\,}\)

Objetivos de aprendizaje
  • Shannon mostró el poder de los modelos probabilísticos para señales de valor simbólico. La cantidad dey que caracteriza tal señal es la entropía de su alfabeto.

La teoría de la comunicación se ha formulado mejor para señales de valor simbólico. Claude Shannon publicó en 1948 La teoría matemática de la comunicación, que se convirtió en la piedra angular de la comunicación digital. Mostró el poder de los modelos probabilísticos para señales de valor simbólico, lo que le permitió cuantificar la información presente en una señal. En el modelo de señal más simple, cada símbolo puede ocurrir en el índice n con una probabilidad Pr [a k], k= {1,... , K}. Lo que dice este modelo es que por cada valor de señal se voltea una moneda de K lados (tenga en cuenta que la moneda no necesita ser justa). Para que este modelo tenga sentido, las probabilidades deben ser números entre cero y uno y deben sumar a uno.

0Pr[ak]1

Kk=1Pr[ak]=1

Este modelo de volteo de monedas supone que los símbolos ocurren sin tener en cuenta cuáles fueron los símbolos anteriores o sucesivos, una suposición falsa para el texto mecanografiado. A pesar de la sobresimplicidad de este modelo probabilístico, las ideas que desarrollamos aquí también funcionan cuando se utilizan modelos más precisos, pero aún probabilísticos. La cantidad clave que caracteriza a una señal de valor simbólico es la entropía de su alfabeto.

H(A)=kKPr[ak]log2Pr[ak]

Debido a que usamos el logaritmo de base 2, la entropía tiene unidades de bits. Para que esta definición tenga sentido, debemos tomar nota especial de los símbolos que tienen probabilidad cero de ocurrir. Un símbolo de probabilidad cero nunca ocurre; así, definimos

0log20=0

para que tales símbolos no afecten a la entropía. El valor máximo alcanzable por la entropía de un alfabeto ocurre cuando los símbolos son igualmente probables

Pr[ak]=Pr[al]

En este caso, la entropía equivale a log 2 K. El valor mínimo ocurre cuando solo se produce un símbolo; tiene probabilidad de que ocurra uno y el resto tiene probabilidad cero.

Ejercicio6.20.1

Derivar los resultados de máxima entropía, tanto el aspecto numérico (entropía equivale a log 2 K) como el teórico (los símbolos igualmente probables maximizan la entropía). Derivar el valor del alfabeto mínimo de entropía.

Solución

Los símbolos igualmente probables tienen cada uno una probabilidad de 1/K. Por lo tanto,

H(A)=kK1Klog21K=log2K

Para demostrar que esta es la asignación de probabilidad de máxima entropía, debemos tomar explícitamente en cuenta que las probabilidades suman a uno. Enfócate en un símbolo en particular, digamos el primero. Pr [a 0] aparece dos veces en la fórmula de entropía: los términos

Pr[a0]log2Pr[a0]and(1Pr[a0]+...+Pr[aK2])log2(1Pr[a0]+...+Pr[aK2])

La derivada con respecto a esta probabilidad (y todas las demás) debe ser cero. La derivada es igual a

log2Pr[a0]log2(1Pr[a0]+...+Pr[aK2])

y todos los demás derivados tienen la misma forma (solo sustituya el índice de su letra). Así, cada probabilidad debe ser igual a las demás, y estamos hechos. Para la respuesta mínima de entropía, un término es

1log21=0

y los demás son

0log20

que definimos como cero también. El valor mínimo de entropía es cero.

Ejemplo6.20.1:

Un alfabeto de cuatro símbolos tiene las siguientes probabilidades.

Pr[a0]=12

Pr[a1]=14

Pr[a2]=18

Pr[a3]=18

Tenga en cuenta que estas probabilidades suman a uno como deberían. Como

12=21,log212=1

La entropía de este alfabeto equivale a

H(A)=(12log212+14log214+18log218+18log218)

H(A)=(121+142+183+183)

H(A)=1.75bits


This page titled 6.20: Entropía is shared under a CC BY 1.0 license and was authored, remixed, and/or curated by Don H. Johnson via source content that was edited to the style and standards of the LibreTexts platform.

Support Center

How can we help?