Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

6.3: Teorema de Codificación Fuente

( \newcommand{\kernel}{\mathrm{null}\,}\)

Ahora volviendo al modelo fuente, tenga en cuenta que las palabras clave tienen una longitud promedio, en bits por símbolo,

L=ip(Ai)Li

Para la velocidad máxima se necesita la longitud promedio de palabra de código más baja posible. La asignación de símbolos de alta probabilidad a las palabras de código cortas puede ayudar a hacerL pequeñas. Los códigos Huffman son códigos óptimos para este propósito. Sin embargo, hay un límite en cuanto a cuán corta puede ser la palabra de código promedio. Específicamente, el Teorema de Codificación Fuente establece que la información promedio por símbolo siempre es menor o igual a la longitud promedio de una palabra clave:

HL

Esta desigualdad es fácil de probar utilizando las desigualdades de Gibbs y Kraft. Utilizar la desigualdad Gibbs conp(Ai)=1/2Li (la desigualdad Kraft asegura que elp(Ai), además de ser positivo, suman no más de 1). Así

Screen Shot 2021-05-05 a las 10.59.09 PM.png
Figura 6.3: Canal binario

H=ip(Ai)log2(1p(Ai))ip(Ai)log2(1p(Ai))=ip(Ai)log22Li=ip(Ai)Li=L

El Teorema de Codificación de Origen también se puede expresar en términos de velocidades de transmisión en bits por segundo multiplicando la Ecuación 6.12 por los símbolos por segundoR:

H RL R


This page titled 6.3: Teorema de Codificación Fuente is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Paul Penfield, Jr. (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform.

Support Center

How can we help?