Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

7.3: Información, Pérdida y Ruido

( \newcommand{\kernel}{\mathrm{null}\,}\)

Para el proceso general discreto sin memoria, se pueden definir medidas útiles de la cantidad de información presentada en la entrada y la cantidad transmitida a la salida. Suponemos que el estado del proceso está representado por eventos aleatorios Ai con distribución de probabilidadp(Ai). La información en la entradaI es la misma que la entropía de esta fuente. (Hemos optado por usar la letraI para la información de entrada no porque signifique “input” o “information” sino más bien por el índicei que repasa la distribución de probabilidad de entrada. La información de salida se denotaráJ por una razón similar.)

I=ip(Ai)log2(1p(Ai))

Esta es la cantidad de incertidumbre que tenemos sobre el insumo si no sabemos qué es, o antes de que haya sido seleccionado por la fuente.

Una fórmula similar se aplica en la salida. La información de salida también seJ puede expresar en términos de la distribución de probabilidad de entrada y la matriz de transición de canal:

J=jp(Bj)log2(1p(Bj))=j(icjip(Ai))log2(1icjip(Ai))

Tenga en cuenta que esta medida de información en la salidaJ se refiere a la identidad del estado de salida, no al estado de entrada. Representa nuestra incertidumbre sobre el estado de salida antes de que descubramos lo que es. Si nuestro objetivo es determinar el insumo, noJ es lo que queremos. En cambio, deberíamos preguntarnos sobre la incertidumbre de nuestro conocimiento del estado insumo. Esto se puede expresar desde el punto de vista de la salida preguntando sobre la incertidumbre del estado de entrada dado un estado de salida particular, y luego promediando sobre esos estados. Esta incertidumbre, para cada unoj, viene dada por una fórmula como las anteriores pero usando las probabilidades condicionales inversasp(Ai|Bj)

ip(Ai|Bj)log2(1p(Ai|Bj))

Luego, su incertidumbre promedio sobre la entrada después de aprender la salida se encuentra calculando el promedio sobre la distribución de probabilidad de salida, es decir, multiplicando porp(Bj) y sumandoj

L=jp(Bj)ip(Ai|Bj)log2(1p(Ai|Bj))=ijp(Ai,Bj)log2(1p(Ai|Bj))

Tenga en cuenta que la segunda fórmula utiliza la distribución de probabilidad conjuntap(Ai,Bj). Hemos denotado esta incertidumbre promedio porL y la llamaremos “pérdida”. Este término es apropiado porque es la cantidad de información sobre la entrada que no se puede determinar examinando el estado de salida; en este sentido se “perdió” en la transición de entrada a salida. En el caso especial de que el proceso permita identificar el estado de entrada de manera única para cada posible estado de salida, el proceso es “sin pérdidas” y, como cabría esperar,L = 0.

Se demostró en el Capítulo 6 queLI o, en palabras, que la incertidumbre después de aprender la salida es menor que (o quizás igual a) la incertidumbre anterior. Este resultado se probó utilizando la desigualdad de Gibbs.

La cantidad de información que aprendemos sobre el estado de entrada al ser dicho el estado de salida es nuestra incertidumbre antes de ser contada, que esI, menos nuestra incertidumbre después de ser dicho, que esL. Acabamos de demostrar que esta cantidad no puede ser negativa, ya queLI. Como se hizo en el Capítulo 6, denotamos la cantidad que hemos aprendido comoM=IL, y llamamos a esto la “información mutua” entre entrada y salida. Esta es una cantidad importante porque es la cantidad de información que obtiene a través del proceso.

Para recapitular las relaciones entre estas cantidades de información:

I=ip(Ai)log2(1p(Ai))

L=jp(Bj)ip(Ai|Bj)log2(1p(Ai|Bj))

0MI

0LI

Los procesos con salidas que pueden ser producidas por más de una entrada tienen pérdida. Estos procesos también pueden ser no deterministas, en el sentido de que un estado de entrada puede conducir a más de un estado de salida. El canal binario simétrico con pérdida es un ejemplo de un proceso que tiene pérdida y además es no determinista. Sin embargo, hay algunos procesos que tienen pérdida pero son deterministas. Un ejemplo es la puertaAND lógica, que tiene cuatro entradas mutuamente excluyentes 00 01 10 11 y dos salidas 0 y 1. Tres de las cuatro entradas conducen a la salida 0. Esta puerta tiene pérdida pero es perfectamente determinista porque cada estado de entrada conduce a exactamente un estado de salida. El hecho de que haya pérdida significa que laAND puerta no es reversible.

Hay una cantidad similar a laL que caracteriza a un proceso no determinista, tenga o no pérdida. La salida de un proceso no determinista contiene variaciones que no se pueden predecir a partir de conocer la entrada, que se comportan como ruido en los sistemas de audio. Definiremos el ruidoN de un proceso como la incertidumbre en la salida, dado el estado de entrada, promediada sobre todos los estados de entrada. Es muy similar a la definición de pérdida, pero con los roles de entrada y salida invertidos. Así

N=ip(Ai)jp(Bj|Ai)log2(1p(Bj|Ai))=ip(Ai)jcjilog2(1cji)

Pasos similares a los anteriores para la pérdida muestran resultados análogos. Lo que puede no ser obvio, pero se puede probar fácilmente, es que la información mutuaM juega exactamente el mismo tipo de papel para el ruido que para la pérdida. Las fórmulas que relacionan el ruido con otras medidas de información son como las de pérdida anteriores, donde la información mutuaM es la misma:

J=ip(Bj)log2(1p(Bj))

N=ip(Ai)jcjilog2(1cji)

0MJ

0NJ

De estos resultados se deduce que

JI=NL


This page titled 7.3: Información, Pérdida y Ruido is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Paul Penfield, Jr. (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform.

Support Center

How can we help?