Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

6.6: Canal ruidoso

( \newcommand{\kernel}{\mathrm{null}\,}\)

Si el canal introduce ruido entonces la salida no es una función única de la entrada. Modelaremos este caso diciendo que por cada entrada posible (que son estados mutuamente excluyentes indexados pori) puede haber más de un posible resultado de salida. Lo que realmente sucede es una cuestión de azar, y modelaremos el canal por el conjunto de probabilidades de que cada uno de los eventos de salidaBj ocurra cuando ocurra cada uno de los posibles eventosAi de entrada. Estas probabilidades de transicióncji son, por supuesto, probabilidades, pero son propiedades del canal y no dependen de la distribuciónp(Ai) de probabilidad de la entrada. Como todas las probabilidades, tienen valores entre 0 y 1

0cji1

y puede pensarse que forma una matriz con tantas columnas como eventos de entrada haya, y tantas filas como eventos de salida. Debido a que cada evento de entrada debe conducir a exactamente un evento de salida,

1=jcji

para cada unoi. (Es decir, la suma decji en cada columnai es 1.) Si el canal es sin ruido, por cada valor dei exactamente uno de los diversoscji es igual a 1 y todos los demás son 0.

Cuando el canal es conducido por una fuente con probabilidadesp(Ai), las probabilidades condicionales de los eventos de salida, condicionadas a los eventos de entrada, son

p(Bj|Ai)=cji

La probabilidad incondicional de cada salidap(Bj) es

p(Bj)=icjip(Ai)

Las probabilidades condicionales hacia atrás\ (p (a_I\; |\; b_j) se pueden encontrar usando el Teorema de Bayes:

p(Ai, Bj) = p(Bj)p(Ai|Bj)= p(Ai)p(Bj|Ai)= p(Ai)cji

El canal ruidoso más simple es el canal binario simétrico, para el cual hay una probabilidad (ojalá pequeña)ϵ de un error, entonces

Este canal binario se llama simétrico porque la probabilidad de un error para ambas entradas es la misma. Siϵ = 0 entonces este canal es silenciosa (también es silenciosa siϵ = 1, en cuyo caso se comporta como un inversor). La Figura 6.3 puede ser más útil para el canal ruidoso si se muestran las posibles transiciones de entrada a salida, como en la Figura 6.5.

SiBj se observa que la salida está en uno de sus estados (mutuamente excluyentes), ¿se puede determinar la entradaAi que la causó? En ausencia de ruido, sí; no hay incertidumbre sobre la entrada una vez que se conoce la salida. Sin embargo, con el ruido hay cierta incertidumbre residual. Calcularemos esta incertidumbre en términos de las probabilidades de transicióncji y definiremos la información que hemos aprendido sobre la entrada como resultado de conocer la salida como la información mutua. A partir de eso definiremos la capacidad del canalC.

Figura 6.5: Canal binario simétrico

Antes de conocer la salida, ¿cuál es nuestra incertidumbreUbefore sobre la identidad del evento input? Esta es la entropía de la entrada:

Ubefore=ip(Ai)log2(1p(Ai))

Después de que seBj haya observado algún evento de salida particular, ¿cuál es la incertidumbre residualUafter(Bj) sobre el evento de entrada? Se aplica una fórmula similar, conp(Ai) reemplazado por la probabilidad condicional hacia atrásp(Ai|Bj):

Uafter(Bj)=ip(Ai|Bj)log2(1p(Ai|Bj))

La cantidad que aprendimos en el caso de este evento de salida en particular es la diferencia entreUbefore yUafter(Bj). La información mutuaM se define como el promedio, sobre todos los productos, de la cantidad así aprendida,

No es difícil demostrar queM ≥ 0, es decir, que nuestro conocimiento sobre la entrada no se hace, en promedio, más incierto al aprender el evento output. Para demostrarlo, se utiliza la desigualdad Gibbs, para cada unoj:

Uafter(Bj) = ip(Ai|Bj)log2(1p(Ai|Bj)) ip(Ai|Bj)log2(1p(Ai))

Este uso de la desigualdad Gibbs es válido porque, para cada unoj,p(Ai|Bj) es una distribución de probabilidad sobrei, yp(Ai) es otra distribución de probabilidad sobrei, diferente a la que hace el promedio. Esta desigualdad se mantiene para cada valor dej y por lo tanto para el promedio sobre todosj:

\ [\ begin {align*}
\ sum_ {j} p (B_ {j}) U_ {\ text {después}} (B_ {j})\ &\ leq\\ suma_ {j} p (B_ {j})\ sum_ {i} p (A_ {i}\; |\; B_ {j})\ log _ {2}\ izquierda (\ frac {1} {p\ izquierda (A_ {i}\ derecha)}\ derecha)\\
&=\\ sum_ {j i} p (B_ {j}) p (A_ {i}\; |\; B_ {j})\ log _ {2}\ Grande (\ frac {1} {p (A_ {i})}\ Grande)\\
&=\\ suma_ {i j} p (B_ {j}\; |\; A_ {i}) p (A_ {i})\ log _ {2}\ izquierda (\ frac {1} {p\ izquierda (A_ {i}\ derecha)}\ derecha)\\
&=\ sum_ {i} p\ izquierda (A_ {i}\ derecha)\ log {2}\ izquierda (\ frac {1} {p\ izquierda (A_ {i}\ derecha)}\ derecha)\\
&=\ U_ {\ texto {antes}}\ tag {6.25}
\ end {align*}\ nonumber\]

Ahora estamos en condiciones de encontrarM en términos de la distribución de probabilidad de entrada y las propiedades del canal. La sustitución en la Ecuación 6.23 y la simplificación conducen a

M=j(ip(Ai)cji)log2(1ip(Ai)cji)ijp(Ai)cjilog2(1cji)

Obsérvese que la Ecuación 6.26 se derivó para el caso donde la entrada “causa” la salida. Al menos, así fue como fue la descripción. Sin embargo, tal relación de causa y efecto no es necesaria. El término información mutua sugiere (correctamente) que es igual de válido ver la salida como causar la entrada, o ignorar completamente la cuestión de qué causa qué. Dos fórmulas alternativas paraM show que seM pueden interpretar en cualquier dirección:

\ [\ begin {align*}
M &=\ suma_ {i} p (A_ {i})\ log _ {2}\ Grande (\ frac {1} {p (A_ {i})}\ Grande) -\ suma_ {j} p (B_ {j})\ suma_ {i} p (A_ {i}\; |\; B_ {j})\ log _ {2}\ Grande (\ frac {1} {p (A_ {i}\; |\; B_ {j})}\ Grande)\\
&=\ suma_ {j} p (B_ {j})\ log _ {2}\ Grande (\ frac {1} {p (B_ {j})}\ Grande) -\ sum_ {i} p (A_ {j})\ Grande) -\ sum_ {i} p (A_ {j}) i})\ suma_ {j} p (B_ {j} \ mid A_ {i})\ log _ {2}\ Grande (\ frac {1} {p (B_ {j}\ mid A_ {i})}\ Grande)\ tag {6.27}
\ end {align*}\ nonumber\]

En lugar de dar una interpretación general de estas o fórmulas similares, simplemente veamos el canal binario simétrico. En este caso ambosp(Ai) yp(Bj) son iguales a 0.5 y así el primer término en la expresión paraM en la Ecuación 6.26 es 1 y el segundo término se encuentra en términos deϵ:

M=1εlog2(1ε)(1ε)log2(1(1ε))

que pasa a ser 1 bit menos la entropía de una fuente binaria con probabilidadesϵ y 1 −ϵ. Esta es una curva en forma de copa que va desde un valor de 1 cuandoϵ = 0 abajo a 0 atϵ = 0.5 y luego retrocede hasta 1 cuando εϵ = 1. Ver Figura 6.6. La interpretación de este resultado es sencilla. Cuandoϵ = 0 (o cuandoϵ = 1) la entrada se puede determinar exactamente cada vez que se conoce la salida, por lo que no hay pérdida de información. Por lo tanto, la información mutua es la misma que la información de entrada, 1 bit. Cuandoϵ = 0.5 cada salida es igualmente probable, no importa cuál sea la entrada, así que aprender la salida no nos dice nada sobre la entrada. La información mutua es 0.


This page titled 6.6: Canal ruidoso is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Paul Penfield, Jr. (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform.

Support Center

How can we help?