6.3: Teorema de Codificación Fuente
( \newcommand{\kernel}{\mathrm{null}\,}\)
Ahora volviendo al modelo fuente, tenga en cuenta que las palabras clave tienen una longitud promedio, en bits por símbolo,
L=∑ip(Ai)Li
Para la velocidad máxima se necesita la longitud promedio de palabra de código más baja posible. La asignación de símbolos de alta probabilidad a las palabras de código cortas puede ayudar a hacerL pequeñas. Los códigos Huffman son códigos óptimos para este propósito. Sin embargo, hay un límite en cuanto a cuán corta puede ser la palabra de código promedio. Específicamente, el Teorema de Codificación Fuente establece que la información promedio por símbolo siempre es menor o igual a la longitud promedio de una palabra clave:
H≤L
Esta desigualdad es fácil de probar utilizando las desigualdades de Gibbs y Kraft. Utilizar la desigualdad Gibbs conp′(Ai)=1/2Li (la desigualdad Kraft asegura que elp′(Ai), además de ser positivo, suman no más de 1). Así

H=∑ip(Ai)log2(1p(Ai))≤∑ip(Ai)log2(1p′(Ai))=∑ip(Ai)log22Li=∑ip(Ai)Li=L
El Teorema de Codificación de Origen también se puede expresar en términos de velocidades de transmisión en bits por segundo multiplicando la Ecuación 6.12 por los símbolos por segundoR:
H R≤L R